央广网北京5月10日消息(记者 樊瑞)人工智能技术的快速发展,对经济社会发展和人类文明进步产生深远影响,也给世界带来巨大机遇。人工智能治理攸关全人类命运,加强国际合作构建人工智能治理图景也显得愈发迫切和重要。
日前,中法两国元首发布关于人工智能和全球治理的联合声明,声明共有十条,包括“人工智能的机遇、风险和挑战本质上是全球性的”等内容。
这是继一个月前的中非人工智能声明后,中国与法国再牵手共同发布的人工智能领域声明。发布关于人工智能的联合声明有何重要性和意义?现在全球人工智能治理面临的共性问题是什么?应当秉持何种治理思路?
人工智能治理已是全球课题
事实上,中国已多次强调要加强人工智能治理的全球合作。
2023年10月,中国在第三届“一带一路”国际合作高峰论坛上正式发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三个方面阐述人工智能治理的中国方案,为人工智能的开发与安全提出建设性的解决思路。
2024年4月3日,中非互联网发展与合作论坛成功举行,中非双方就人工智能领域的合作进行深入交流,并发表了《2024年中非互联网发展与合作论坛关于中非人工智能合作的主席声明》,呼吁加强中非间政策对话与沟通,加强技术研发与应用,推动中非人工智能创新合作。
这次中法两国的联合声明,是在2023年4月7日《中法联合声明》达成共识的基础上,两国元首特别在人工智能方面达成的共识。
中国政法大学教授、联合国高层人工智能咨询机构专家张凌寒向央广网记者介绍,中国和其他国家发起的人工智能合作共识,都是遵循《全球人工智能治理倡议》中所倡导的“各国应秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重的原则”达成的具体共识。她指出,中国推进中非和中法之间人工智能治理的共识,是推进中国全球人工智能治理主张的一个重要步骤和有益尝试,有利于向全球传递中国治理经验。
为何要在人工智能治理领域单独达成共识声明?北京航空航天大学法学院副教授赵精武表示,系因ChatGPT,Sora等人工智能产品的面世彻底颠覆了人们对该项技术的传统认知,人工智能技术已经成为未来数字经济转型升级的核心要素,需要加强对人工智能的治理。
近些年,人工智能的重要性也越发被强调。2020年,人工智能在“十四五”规划和2035年远景目标纲要中的优先级进一步提升,强调“培育壮大人工智能、大数据、区块链、云计算、网络安全等新兴数字产业”。今年的政府工作报告中,三次提到人工智能,更首次提出要开展“人工智能+”行动。
放眼全球,发展和治理人工智能已成为全球各国面临的共同课题。中国信息通信研究院互联网法律研究中心副主任何波强调,中国和法国均高度重视人工智能,在人工智能技术发展、行业应用以及治理规范等方面都积累了大量经验。中法两国选择在人工智能治理方面单独达成共识声明,直面国际社会热点难点问题,积极回应全球人工智能治理面临的挑战,提出一系列原则和理念,为全球人工智能治理提供正能量,注入新动力,也充分展现中法两国作为负责任大国的担当与风范。
人工智能风险几何?
声明中指出,中法两国认识到人工智能在发展与创新中的关键作用,同时考虑到人工智能的发展和使用可能带来的一系列挑战,一致认为促进人工智能的开发与安全,并为此推动适当的国际治理至关重要。
何波向央广网记者介绍,当前,人工智能正在全球范围内蓬勃发展,成为新一轮科技革命和产业变革的重要驱动力量。从全球最新进展来看,大模型成为人工智能发展最突出的热点,在文本对话、图像和视频生成、意图理解等方面不断取得新突破,与以往人工智能技术相比,大模型技术具有规模扩展性强、多任务适应性强、能力可塑性强等特点,有望成为通向通用人工智能的可行路径,将对全球经济社会发展和人类文明进步产生深远影响。
面对人工智能对社会带来的革命性改变,人工智能伴生的风险和冲击一直以来也颇受业内专家关注。
共识中也提出,两国认识到该技术相关的潜在和实存风险,致力于采取有效措施应对这些风险。
何波介绍,当前国际社会普遍关注人工智能在数据、算法和应用方面的不同风险。在数据方面,关注信息隐私和数据安全;在算法方面,关注算法公平性、可解释性方面的风险;在应用方面,关注深度伪造等内容风险。“以上已经成为人工智能技术的实存风险,对社会发展已经产生危害,例如,利用深度伪造技术进行网络诈骗的行为已经给社会经济发展和社会信任造成不良影响”,他总结表示。
赵精武也关注到人工智能带来的网络违法信息泛滥风险。生成式人工智能使得批量生成符合人类日常表达方式的网络信息成为可能,加之“AI换脸”等深度合成技术的不断优化,网络虚假信息的生成成本越来越低,并且,这些虚假信息让社会公众难以辨别真假。一旦被用于国家领导人讲话等场景时,甚至有可能存在威胁国家安全的风险。因此,针对这类风险,常见的有效措施是要求人工智能服务提供者或者网络信息发布者履行显著标识义务,提示该信息内容由AI生成。
国际上有关人工智能风险的讨论较多,赵精武另一个较为关注的是科技伦理风险。他进一步向央广网记者介绍指出,部分人工智能的应用方式可能颠覆了人们日常的伦理观念。如近期引发争议“AI复活死者”,究竟是“技术造福人类”,还是属于“技术侵蚀人类情感”,尚存有争议。针对这类风险,常见的应对措施是设置科技伦理审查机制,对人工智能技术应用功能方式进行伦理规范审查。
不可回避的是,人类正在步入人工智能社会,未来人工智能将会更加深入渗透进我们的生活之中,人工智能对社会变革将会带来全方位、颠覆性的影响。
何波也表示,随着人工智能技术的发展,其潜在风险和实存风险间的界限也将愈发模糊,算法可解释性不足会对人工智能可控可信的结果产生影响。而随着人工智能技术被更广泛地应用,人工智能对环境、工作机会、教育等会带来等正负面的影响。
建立安全与发展两轮并重的治理观念
人工智能的机遇、风险和挑战本质上是全球性的。中法两国在声明中强调,在技术迅速发展的背景下,为确保国际安全与稳定以及尊重主权和基本权利,加强国际合作具有重要意义。
人工智能的安全与发展一直是人工智能治理领域的关键议题,应该如何促进人工智能的安全开发?
赵精武向央广网记者介绍,需要实施全流程监管和分级分类监管机制。一方面,针对人工智能技术研发、测试、应用等多个技术环节,明确相应的安全技术标准,辅之以科技伦理审查机制,从各个环节预防和控制技术安全风险;另一方面,针对人工智能应用的不同场景、不同风险程度,设置不同的监管机制,在保障人工智能技术应用安全的同时,也能够最大化预留人工智能产业创新空间。
在何波看来,要坚持发展、安全、治理的人工智能治理思路。具体来说,至少需要做好三个方面的工作:一是坚持伦理先行,前瞻研判人工智能伦理风险,注重风险预防、加强源头治理,这也是确保人工智能健康发展的前提;
二是坚持法治化推进,人工智能治理的法治化是确保人工智能技术安全有序发展的重要保障,需要建立健全相关法律制度,明确各主体、各环节责任义务,关注权利保护;
三是坚持以技管技。迈入人工智能时代,技术性调整手段的重要性日益凸显,人工智能发展具有鲜明的技术色彩,人工智能设计、研发、应用等全流程、各环节均有数智技术的深度参与,因此,辅以相应的技术治理十分必要,要积极发展促进人工智能安全相关技术,以人工智能技术促进人工智能安全开发。
现阶段,人工智能治理正处于从原则走向实践的关键期,也处于治理规则的塑造期。何波认为,各国的实践路径独具特色,其人工智能治理模式的选择与本国实际情况密切相关,考虑到我国人工智能技术、产业以及治理等方面都处于全球前列,我国人工智能发展和治理立足本国国情是非常必要的。