近年来,大型语言模型和聊天机器人激发了人们对人工智能(AI)革命的希望,但全球治理的就绪程度却远远滞后于技术发展的步伐。
2025年2月,法国将在巴黎举办人工智能行动峰会,探讨如何明确新的全球AI治理框架。该峰会特使布夫罗(Anne Bouverot)接受第一财经记者专访时表示:“当前全球AI治理面临两大挑战,一是发展碎片化,二是机会不均等。”
作为全球科技领域的专家,布夫罗在推动数字技术治理与国际合作方面拥有丰富经验。她曾在法国Orange电信公司工作多年,后曾担任全球移动通信系统协会(GSMA)首席执行官。2024年,法国总统马克龙任命她为2025年2月举行的AI行动峰会特使。
布夫罗强调,此次峰会的特别之处在于,将聚焦AI在就业、文化、教育和气候等领域引发的深刻变革,最终落脚在“具体行动”上。既要防范潜在风险,更要确保AI的发展潜力能够惠及更广泛人群。
布夫罗称,这一多边合作的进程与气候治理领域的《巴黎协定》有一定相似之处。她透露,此次峰会期间,参与的各国领导人将聚焦人工智能的包容性与可持续发展,最终共同发表联合声明。
“许多国际倡议都成功推动构建了更包容、可持续的全球框架。这次峰会的目标正是要引导人工智能朝着更加普惠的方向发展,同时有效应对关键挑战。”她说。
AI发展的现实困境
布夫罗提出,从国际层面上看,当前的人工智能生态系统相对碎片化。公共机构和研究中心在某种程度上落后于私营部门。此外,不同地区的法律和监管框架也存在差异。这些因素阻碍了我们实现或最大化集体利益。
根据世界经济论坛的数据,2023年,私营部门共发布了51个机器学习模型,学术界仅发布了15个。这部分是因为运行或训练大语言模型并不便宜,例如,OpenAI的GPT-4训练成本预计为7800万美元,而谷歌的Gemini Ultra则耗资1.91亿美元。
在监管方面,斯坦佛大学的监测显示,从2021至2023年,欧盟通过的人工智能相关法规数量有100条之多,而美国仅在50条左右。欧盟的监管也更成体系,其《人工智能法案》对某些被禁止的AI实践和高风险AI应用设定了严格的规定,并对违规行为设定了高额罚款。美国仍缺乏统一的联邦AI立法,更多依赖各州自行制定相关法律。中国则采取了纵向立法的方式,针对特定行业和技术发布法规和技术标准。
“同时,人工智能的发展集中在少数几个地区,而那些最脆弱、最缺乏数字发展条件的人群,可能会被进一步排除在人工智能发展的浪潮之外。现存的南北差距可能因人工智能的发展而进一步扩大。”她称。
根据牛津洞察(Oxford Insight)发布的《政府人工智能就绪度指数》,高收入国家在“技术领域”的得分远高于其他收入组别的国家,一些情况下,高收入国家和中高收入国家之间的差距甚至大于所有其他收入组别之间的差距总和。
当前的AI竞争格局也反映了这种不平衡。布夫罗承认:“美国和中国在人工智能领域处于领先地位。但除此之外也有许多重要的参与者,尤其是欧洲国家,特别是法国。比如,法国Mistral AI表现非常出色,其大语言模型在基准测试中的表现堪比OpenAI、Meta或谷歌的系统。同时,这些模型还注重提高效率,从而更加环保。”
但仅有少数国家的进步是远远不够的,布夫罗强调,应该有更多国家能够发展自己的人工智能生态系统,包括全球南方国家,而这正是即将召开的人工智能行动峰会的重要使命之一。
在环境方面,她表示,人工智能可以通过优化资源消耗来帮助减缓气候变化和适应气候挑战,同时支持诸如极端天气事件的预警系统等工作。但另外,人工智能的发展也在消耗越来越多的能源、水和稀缺资源,目前并未走上一条可持续的轨道。
她举例说:“在美国,有些核设施将因人工智能发展的用电需求而重新启用。在法国,我们是一个拥有大量核能的能源出口国,是脱碳的。”
布夫罗认为,各国可以根据自己的能源结构来决定如何应对这一挑战,但从全球角度看,需要全面评估人工智能的能源消耗和碳足迹之间的平衡问题。“此次峰会将从多个角度探讨这些问题。一是科学视角,我们希望对人工智能的发展路径达成科学共识;另一方面,我们还计划激励投资,推动更可持续、更低碳、更合理的人工智能发展方式。可持续性和气候问题是一项共同责任,需要大家齐心协力采取行动。”
构建全球AI治理新框架
布夫罗表示,法国在推动多边对话和多方利益相关者参与全球治理方面有丰富经验。此次峰会也并非“从零开始”,而是建立在2023年11月的首届人工智能安全峰会英国布莱切利公园峰会和2024年5月在首尔举行的第二届全球人工智能安全峰会的基础之上。
她认为,汇聚私营企业、学术界、政府和社会各界的智慧,对推进全球AI治理讨论具有重要价值。为了应对发展碎片化和机会不均等问题,峰会将设计确保各方平等发声,实现全生态系统的合作。同时,峰会也将全面借鉴联合国框架下的重要倡议,特别是作为人工智能治理重要里程碑的《全球数字契约》。
联合国系统2024年白皮书《人工智能治理》提出,鼓励各国通过多边机制共同制定AI治理框架,确保技术的使用符合国际法和人权标准。该白皮书倡导制定全球统一的AI技术和伦理标准,特别是在高风险领域(如自动驾驶、医疗AI和自动武器)加强监管。在治理过程中,则建议吸纳政府、私营部门、学术界和公民社会的广泛参与,以保证政策的多样性和可执行性。
布夫罗介绍,为了构建可信任的AI治理框架,峰会创新性地采用了“三S方法”,即科学(Science)、解决方案(Solutions)和标准(Standards)。
在科学方面,峰会将以科学共识为基石。2月6日至7日的“科学日”将发布由首届人工智能安全峰会委托的《人工智能安全报告》。在解决方案方面,峰会着眼于在科学、文化、医疗健康和工业等实际场景提供具体可操作的应用方案,力求超越抽象的理论探讨,落实到实践工具层面。在标准方面,峰会将致力于推动统一标准的建立,这不仅有助于各方协调行动,也为衡量和管理AI的环境影响提供重要依据。