对生成式AI要做好人工把关 保证人类拥有“最终决定权”

对生成式AI要做好人工把关 保证人类拥有“最终决定权”

南都数字经济治理研究中心研究员杨博雯发布《生成式AI伦理与治理倡议书》。

国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜

7月6日,以“智联世界 生成未来”为主题的2023世界人工智能大会在上海世博中心开幕。昨日上午,由南方都市报、清华大学人工智能全球治理研究院主办,中国科协-复旦大学科技伦理与人类未来研究院和上海人工智能实验室协办的“人工智能创新与治理”论坛顺利召开。

本次论坛邀请了多位来自国内外的大咖专家参与,中国法学会副会长、最高法原副院长江必新,清华大学公共管理学院院长、科技发展与治理研究中心主任朱旭峰,清华大学惠妍讲席教授、电子系长聘教授周伯文现场发表主题演讲,中欧数字协会主席鲁乙己、联合国大学驻澳门研究所研究主管塞尔吉·斯汀克威奇则通过视频连线参会。

AI换脸诈骗、大模型生成错误信息、人工智能的版权归属争议……聚焦生成式AI潜在的风险与问题,南都数字经济治理研究中心在论坛上重磅发布《生成式AI伦理与治理倡议书》(下称《倡议书》)。

据了解,这是国内首份由智库媒体发起、跨行业联动发布的生成式AI治理与伦理倡议书,截至发布当天已获得近40位专家署名支持。

倡议背景 AI生成内容“以假乱真”如何区分?

当天论坛上,南都数字经济治理研究中心介绍这份倡议书的出炉过程——前后修订11次,从撰写到发布历时一个多月,共收到十余份、总计上万字的反馈意见,最终形成七大原则和七大建议。

倡议书提到,当前,基于生成式AI技术,已经诞生了文章生成、智能对话、AI换脸、语音合成、表情操纵等多种应用,广泛影响了教育、影视、传媒等一众领域。随着技术不断发展,生成式AI也带来了一系列问题。

今年4月,一起“网聊10分钟骗走百万”的案例,揭示了AI换脸和AI拟声技术佯装好友实施诈骗的问题。在国外,也有ChatGPT“捏造”罪名、生成虚假案例发生,有关AI生成内容涉嫌侵犯知识产权的讨论更是争论不休。

面对当前愈发“以假乱真”的AI生成内容,我们到底该如何区分?当AI生成内容造成侵权或违法问题,责任认定如何划分?面对无法抵御的技术发展浪潮,又该如何从各个层面去规范、监管?

南方都市报社党委书记、总裁戎明昌在致辞中表示,伴随着新技术新应用的出现,虚假信息、AI诈骗、隐私泄露、版权争议等成为困扰用户和行业的新问题,大模型的迅猛发展,也对数字经济提出更高的安全和治理要求。希望这份《倡议书》能为当前技术的规范与监管提供参考,推动AI治理从原则倡议走向实操,让技术创新造福人类生活。

七大原则 关注人工把关、敏捷治理

此次《倡议书》提出了七大原则——确保安全、客观公正、信息披露、尊重自主、可问责可追溯、人工把关、敏捷治理。

其中确保安全原则提到,相关企业或组织应采取足够的管理措施和技术手段,积极防范生成式AI技术产品的漏洞攻击风险,并在产品的整个生命周期中保证用户隐私及个人信息的安全。

信息披露原则指出,在符合法律和政策规定、技术可行的范围内,建议相关企业或组织持续向公众和客户提供必要的相关技术方法的原理和应用信息,如是什么、做什么、如何做;及时披露相关的安全、法律、伦理风险和已采取的应对手段,必要时提供明确的使用建议和辅助工具。

结合此前“外卖骑手困在算法里”“热搜买榜”等事件,南都数字经济治理研究中心认为,该条旨在敦促技术开发方或者平台积极主动地向公众披露信息,回应公众的疑惑,给消费者和用户更好的服务。

考虑到技术发展迅速,对于生成式AI发展的潜在风险,很难完全事先“确保”一定不出错,为此《倡议书》在多位专家的建议下,引入“敏捷治理”原则,提出相关企业或组织应不断调整、优化、完善多层次治理体系、治理机制、治理工具,及时发现并解决可能风险。

《倡议书》还提出“人工把关原则”,认为生成式AI服务或产品的评估、审核、监督、问责与救济环节应始终确保有一定比例的人工参与,做好必要的把关工作,始终保证人类拥有“最终决定权”,贯彻以人为本的价值观。

七大建议 标记AI生成内容 提高算法素养

在基本原则之后,《倡议书》进一步提出七大促进生成式AI发展的建议。其中包括生成式AI模型训练的数据合法来源,明确不得未经用户授权同意使用人脸、指纹等生物识别信息,尤其重视对未成年人的保护。

针对AI生成虚假信息的问题,《倡议书》建议,对使用生成式AI服务生成或编辑的信息内容,相关企业或组织应添加能够让公众明确知悉且不可删改的标识,以与真实信息区分,并逐渐形成行业标准。

在知识产权归属方面,《倡议书》则建议,出于权利保护和激励产业加大投入的考虑,应充分考虑智力与经济投入较高的一方的权益。

同时鼓励相关企业或组织积极探索生成式AI在教育、政务、科研等领域的应用。有学者提出,基于行业特性考虑技术落地的场景,比如在医疗诊断等对生成式内容错误高度敏感的领域应谨慎使用。这一建议也被吸纳到《倡议书》中。

最后,《倡议书》还向用户发出“提高算法素养”的建议,希望用户“能够意识到算法在网络平台和服务中的使用,了解算法的基本工作原理和使用技能”,如此一来才能在算法社会保护自己,保持人的尊严与价值。

意见反馈 呼吁防止技术滥用 保护个人权利

这份由国内智库媒体发起的倡议书,在征集意见阶段即获得了不少人工智能领域的专家关注,并收获了诸多反馈意见。

论坛当天,南都数字经济治理研究中心透露,这份《倡议书》截至目前共争取到近40位专家学者联署,其中包括全国政协委员、高校学者、企业代表、律师等。他们的专业背景横跨人工智能、法律、网络安全、数据隐私、知识产权、人文社科、新闻传媒等多个领域。

参与此次联署的上海政法学院经济法学院数字法学研究中心主任商建刚告诉南都记者,“协同共治、算法透明、数据质量、伦理先行是生成式人工智能治理的元原则,今天发布的《倡议书》是协同治理的一项有效举措,体现了软法治理的原则。倡议的内容与元规则的内容契合,且更加详实和具体,对行业的自我规制具有参考价值。”

来自业界的代表——科大讯飞研究院执行院长、认知智能全国重点实验室副主任王仕进表示,“技术发展的过程中,法律、伦理、人文全部都要跟进,我们需要在合法合规、风险可控的情况下,迎接人工智能全新发展阶段。”

中国科学院人工智能联盟标准组成员吴焦苏则对南都记者表示,生成式AI是具有高阶信念的大型交流博弈和大型行动博弈,即使有再大的算力,也不可避免地会出现幻觉现象,因此对生成式AI伦理和治理对人类的未来至关重要。他认为,这份《倡议书》的发布意义重大,期待对人类AI的正常发展起到指南针的作用。

值得一提的是,作为公众人物,明星遭遇AI换脸的新闻时有发生。不久前,有特效师通过AI换脸技术制作亲吻女艺人的照片或视频引发热议;近期各种明星多巴胺穿搭视频也被指涉嫌侵权;此前甚至有明星公开称收到“AI换脸”后的勒索视频……

为了呼吁更多人重视AI技术规范使用,这份《倡议书》特别邀请公众人物参与。青年歌手炎明熹表示,AI本可以让生活更美好,但技术的滥用则可能带来伤害。知名青年演员蓝盈莹提到,曾听闻身边朋友遭遇过“AI换脸”的经历。

蓝盈莹告诉记者,“我们正在经历时代的飞速进步,AI科技的高速发展提高了如今的生产生活效率,方便了我们的生活,但也伴随着‘风险’,出现了一些意料外的伤害。”为此,蓝盈莹呼吁反对AI换脸技术滥用,保护每个人的权利,推动AI向善发展。“希望我们的时代更加科技化的同时,也可以更加安全。”

专家观点

如何避免AIGC“狂飙”?

薛澜:技术最大风险是不可掌控性

昨日上午,在“人工智能创新与治理”分论坛上,国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜以视频演讲的方式,作了主题为《构建互动互信机制,推动AI治理敏捷前行》的分享。

AIGC大放异彩 但不可忽视潜在危害  

根据瑞银集团报告,ChatGPT推出仅两个月后,其2023年1月末的月活用量已经突破1亿,成为史上用户增长速度最快的消费级应用程序。有许多人把这一技术的出现与iPhone或Windows相比,称其为人类技术进步中的重要里程碑。

在国内,生成式AI市场也风起云涌,头部企业先后推出各自的大模型。AIGC技术也在不同的领域中大放异彩,如生成原创的艺术作品、自然语言翻译和语音合成,和投资组合建议等等。AI技术应用遍地开花的同时,薛澜提醒由此带来的潜在风险和危害不容忽视。

比如,隐私泄露的风险。由于AIGC需要大量数据用于训练和学习,当个人数据被滥用或泄露时,将造成巨大的隐私威胁。再比如,错误判断的风险。薛澜举例,“在医疗诊断中,如果AI模型错误地给某人诊断为患有某种疾病,可能会导致健康人接受不必要的医务治疗,导致不良后果,甚至危及生命。”  

呼吁建立更加坚实的人工智能治理体系  

AIGC还可能带来失业的风险。来自高盛的一份报告称,人工智能可以取代3亿个全职工作岗位,完成美国和欧洲四分之一的工作任务。OpenAI研究人员发布论文显示,约80%美国人工作将被AI影响。“随着生成式人工智能技术的普及,越来越多的职业可能会被自动化替代,将对经济社会稳定等方面产生负面影响。”薛澜说。

AIGC带来的潜在风险远不止于此,还有生成虚假信息、侵犯知识产权等问题,甚至存在安全隐患——比如黑客攻击、病毒入侵可能会导致数据泄露、系统瘫痪等。

“当然人们更加担心的是技术发展轨迹的不可掌控性,以及出现无法逆转的社会影响。”薛澜认为,正是这种高度不确定性和风险,让人工智能治理问题成为利益相关者共同关心的话题。全社会对人工智能治理的关注和呼声也比以往任何时候都更加强烈。

南都记者注意到,今年4月,上千名学者包括图灵奖获得者联名签署公开信,呼吁暂停AIGC的研究,建立更加坚实的人工智能治理体系。

不久前,上百名专家联名发起警惕AI公开信,建议将AI风险等级与流行病、核武器并列。签署人包括三家全球顶尖AI公司的CEO——“ChatGPT之父”、OpenAI创始人兼CEO萨姆·阿尔特曼,谷歌DeepMind公司CEO戴米斯·哈萨比斯,以及美国Anthropic公司的CEO达里奥·阿莫代伊。微软和谷歌公司的多名高管也在名单之中。  

如何应对AIGC带来的风险与挑战?  

为回应这一关切,各界都做出了自己的努力。

如何应对AIGC带来的风险与挑战?薛澜回顾中国人工智能治理的发展历程发现,“我们已经经过了回应式治理,集中治理,正在迈入敏捷治理时代。”

具体而言,他提到在2020年之后,国家针对人工智能应用中浮现的各种应用风险及社会影响,迅速完善了针对数据、算法、平台等的相关法律法规,进入多部门集中治理阶段。

2021年9月,科技部发布《新一代人工智能伦理规范》,2022年3月,中共中央办公厅和国务院办公厅共同发布《关于加强科技伦理治理的意见》,其中皆提出了人工智能的敏捷治理。薛澜注意到,这些文件相继提出敏捷治理原则后,探索适宜的人工智能治理模式开始备受关注。

今年4月,中央网信办发布了《生成式人工智能服务管理办法征求意见稿》,旨在规范生成人工智能服务市场秩序,保障公民法人和其他组织的合法权益,维护国家安全和公共利益。在薛澜看来,该政策的出台体现了中国政府对人工智能技术和产业发展的高度重视,以及对于生成式人工智能服务的规范化管理的决心,也展示了政府监管部门在敏捷治理方面的实践探索。

“我相信通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作敏捷治理的模式正在浮现。”薛澜说。  

规范生成式人工智能技术的使用和管理  

着眼未来,针对如何继续推进人工智能发展与治理的协调问题,薛澜也提出了自己的建议。

他认为,首先在监管的层面上,应当进一步明确监管框架和法律法规,建立合理的治理框架,完善相关法律法规,明确各方的责任和义务,规范生成式人工智能技术的使用和管理。

其次,应加强开发行业技术标准和规范,同时探索技术手段,助力技术监管,制定和完善生成式人工智能技术的技术标准和规范,确保技术和产品的质量和可靠性,同时探索各种技术手段,助力人工智能的监管与治理。

再者,企业应强化风险管理,加强对生成式人工智能技术的风险管理,及时识别和处理潜在的安全漏洞和风险事件,同时建立事件应对预案,及时有效处理各类事件。

最后加强公众及社会沟通也不容忽视。薛澜认为,应加强公众及社会沟通,提高全社会对生成式人工智能技术的认识和理解,增强公众的风险意识和安全意识。此外还应鼓励社会监督,引导社会各界积极参与生成式人工智能技术的治理,发挥舆论监督和社会监督的作用,促进技术创新和社会和谐发展。

●人们更加担心的是技术发展轨迹的不可掌控性,以及出现无法逆转的社会影响。

●我相信通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作敏捷治理的模式正在浮现。

——国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜

出品:南都数字经济治理研究中心 

统筹:程姝雯 李玲 

采写:杨博雯 黄莉玲 马宁宁 胡耕硕 赵唯佳 刘嫚 蒋小天 赵霖萱 黄慧诗 樊文扬 实习生 唐小狄返回搜狐,查看更多

责任编辑:

发布于:辽宁沈阳辽中县