发布日期:2024-08-02 15:00 点击次数:66
5月21-22日,人工智能首尔峰会(AI Seoul Summit)在韩国举办,这是去年11月在英国召开的全球人工智能安全峰会的后续会议。
周二(21日),美国、英国、加拿大、日本、韩国等10个国家以及欧盟的领导人共同签署《首尔声明》,呼吁加强国际AI治理合作以及治理框架之间的互操作性,倡导以风险为基础的政策和治理框架,支持启动首个国际AI安全研究所网络,促使国家间形成对AI安全的共同理解,并在研究、标准和测试方面进行协调。
同日,16家全球领先的科技公司在峰会期间作出“前沿AI安全承诺”,将努力确保其最先进的AI模型的安全性,并实施负责任的治理,实现公开透明。
联合国秘书长古特雷斯(Antonio Guterres)在峰会开幕式上表示,自去年英国布莱切利峰会召开以来,“我们看到了改变生活的技术进步,也看到了威胁生命的新风险”。他认为,需要就AI问题制定普适的防护措施,并定期开展对话。
欧洲复兴开发银行前行长查克拉巴蒂(Suma Chakrabarti)此前接受第一财经记者采访时表示,AI等领域的全球数字治理的核心问题是各国政府能否统一标准,以实现数字基础设施的跨国互操作性。目前来看,其中存在很大的障碍,例如不同国家和地区的公民对政府和私营部门处理数据的信任程度差别很大。
前沿AI企业的安全承诺
AI首尔峰会在开幕前夕发布了一份名为《关于先进人工智能安全性的国际科学报告(中期报告)》。报告称,尽管通用AI可以用来推进公共利益,但也可能被用来造成危害,甚至带来系统性风险。AI的未来充满不确定性,但社会和政府的决策将显著影响其未来。
这一背景下,政府官员和AI行业高管同意就此采取基本安全措施。参与承诺的16家公司包括美国、法国、中国、韩国以及阿联酋的AI企业,例如:美国科技巨头亚马逊、微软、Meta、谷歌,AI初创公司Anthropic、OpenAI和特斯拉创始人马斯克建立的xAI;法国的Mistral AI;韩国的三星电子以及互联网公司Naver;阿联酋的AI公司G42以及技术创新研究所(TII);以及中国的智谱AI等。
这些企业或组织承诺,在开发和部署前沿AI模型和系统时将有效识别、评估和管理风险;对安全开发和部署前沿AI模型和系统负责,遵守承诺并建立内部问责和治理框架;对外部行为者保持适当的透明度,包括政府。例如,企业应设定模型或系统的严重风险阈值,并监控是否接近或超过这些阈值;如果超出阈值,必须设定应对风险的明确流程。在保持透明度方面,除非会增加风险或泄露敏感商业信息,企业应公布承诺的实施情况。
根据英国政府的声明,这些公司同意,“如果缓解措施无法将风险控制在阈值以下,则根本不开发或部署模型或系统”。
签署协议的AI公司之一Cohere首席执行官戈麦斯(Aiden Gomez)说,自英国峰会以来,有关人工智能监管的讨论已从更长远的末日场景转向更实际、更紧迫的问题,比如如何在医疗或金融等领域使用人工智能,如何杜绝错误和虚假信息以及偏见,保证数据安全,并确保人类操作员或决策者始终参与或监督关键过程。
AI安全的管辖权问题
这并非行业领先的AI公司第一次作出承诺,但从过往经验来看,在缺乏硬性立法的情况下,这些自愿承诺似乎仍有局限性。
例如,去年11月的英国峰会上,Anthropic、OpenAI和亚马逊等科技公司同意,在其发布先进的AI模型之前,政府可以在安全测试中发挥作用。该峰会还成立了英国人工智能安全研究所(UKAISI),大力推动由科学家主导的对AI能力和安全风险的定期评估。但事实上,Anthropic于今年3月推出了最新一批模型,却尚未允许UKAISI对其模型进行发布前测试。该公司联合创始人克拉克(Jack Clark)称,该公司正在与UKAISI合作,研究政府如何进行部署前测试,但他认为这“很难实施”。
专注于AI研究欧洲智库Ada Lovelace Institute研究伙伴关系部副主任斯特雷特(Andrew Strait)表示,六个多月过去了,“发布前测试”的承诺似乎未能以任何有意义的方式实现。“现在应该非常清楚,我们不能依赖人工智能公司的善意。自愿协议不能替代提供这种访问的法律授权。”他称。
据多位知情人士透露,AI公司对UKAISI更深入地参与测试的主要顾虑包括担心技术机密泄露,以及测试会拖延产品的推出。
管辖权则是另一个问题。许多经济体都在建立自己的政府机构,加强对AI安全的治理框架建设。
除了UKAISI外,今年2月,美国启动了美国人工智能安全研究所(USAISI)。欧盟新设了人工智能办公室,促进欧盟《人工智能法案》的统一适用,并重点监测由通用AI模型产生的不可预见的风险。在亚洲地区,新加坡去年成立了人工智能验证基金会(AIVF),与IBM、微软和谷歌等公司合作开发人工智能测试工具,以便负责任地使用和制定国际标准。日本也在今年2月成立了人工智能安全研究所,研究AI安全评估方法和标准,并开展国际合作。
4月初,美国和英国签署了一项人工智能协议备忘录,这是全球首个关于AI安全的双边安排,就如何测试和评估新兴AI模型的风险开展正式合作。不过,Meta公司全球事务总裁克莱格(Nick Clegg)对媒体表示:“你不能让这些AI公司在每一个不同的司法管辖区都跳来跳去,从我们的角度来看,我们的主要关系当然是与美国人工智能安全研究所(的互动)。”
随着欧洲理事会在21日正式批准了欧盟《人工智能法案》,AI领域的硬性立法也不再是一片空白。咨询公司罗兰贝格全球管理委员会联席总裁戴璞(Denis Depoux)对第一财经记者称,该公司已经提醒客户对AI领域的更多监管作出准备。“(和欧洲不同)美国虽然没有相应的联邦法律,但一些州已经实施了自己的规定。这凸显了监管机构重视保护消费者隐私、防止技术滥用的趋势。”他说,这种监管转变是积极的,不仅为消费者提供保护,也通过保护数据为公司自身提供了安全,AI领域也将如此。
意大利经济发展部前副部长杰拉奇(Michele Geraci)接受第一财经记者采访时则提醒,进行这一领域的立法并不简单。他称:“实现创新与监管之间的平衡是一项重大挑战,尤其是欧盟经常被认为容易过度监管。目前试图通过立法解决问题的方法可能不是最有效的策略。人工智能未来五年的影响和发展轨迹在很大程度上仍无法预测,因此很难设想其潜在应用。这种不确定性使制定法律来管理一项仍在发展的技术的任务变得更加复杂。”
举报 第一财经广告合作,请点击这里此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。 如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。 文章作者高雅
相关阅读 OpenAI“超级对齐”团队解散后 谁还能为AI失控负责?OpenAI内部不同阵营对AI的安全性分歧正在逐步暴露。
05-22 12:16 OpenAI解散风险团队 人工智能发展方向引担忧近日,在人工智能领域竞争日益激烈之际,美国人工智能公司OpenAI解散旗下负责人工智能风险的团队,而该团队从成立到解散尚不满一年,此举引发外界对OpenAI在人工智能安全方面的担忧。
05-22 11:50 AI周报|OpenAI被曝解散“超级智能对齐”团队;多家美国AI创业公司开启裁员OpenAI证实“超级智能对齐团队”解散,有分析人士质疑OpenAI是否仍重视安全,CEO奥尔特曼几天后将回应此事。
05-19 11:04 OpenAI内斗风波关键人物离职!保守派力量削弱、OpenAI将加快商业化吗?如果没有他,OpenAI就不会有今天。
05-15 15:44 OpenAI首席科学家伊尔亚宣布离职,奥尔特曼:没有他就没有今天的OpenAI奥尔特曼同时宣布,雅库布将接替伊尔亚炒股配资官网,成为OpenAI的首席科学家。
05-15 09:59 一财最热 点击关闭