曾有上千人呼吁暂停!清华院长说……

曾有上千人呼吁暂停!清华院长说……

7月6日-8日,第六届世界人工智能大会(WAIC 2023)在上海举行。

7日上午,在由南方都市报社和清华大学人工智能国际治理研究院联合主办的“人工智能创新与治理”分论坛上,国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长 薛澜以视频演讲的方式,作了主题为《构建互动互信机制,推动AI治理敏捷前行》的分享。

会上,他回顾了中国人工智能治理的发展历程提到,通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作、敏捷的人工智能治理模式正在浮现。”

薛澜认为,在ChatGPT横空出世后,生成式人工智能(即AIGC)的应用潜力也被快速发掘出来,进入包括医疗、艺术、娱乐、游戏、金融等多个应用领域。与此同时,AIGC带来的潜在风险和危害也完全不能忽视。因此在监管方面,需要进一步明确监管框架和法律法规,建立合理的治理框架,并加强开发行业技术标准和规范,助力技术监管,制定和完善生成式人工智能技术的技术标准和规范。

01 / AIGC大放异彩,但不可忽视潜在危害

根据瑞银集团报告,ChatGPT推出仅两个月后,其2023年1月末的月活用量已经突破1亿,成为史上用户增长速度最快的消费级应用程序。有许多人把这一技术的出现与iPhone或Windows相比,称其为人类技术进步中的重要里程碑。

在国内,生成式AI市场也风起云涌,头部企业先后推出各自的大模型。AIGC技术也在不同的领域中大放异彩,如生成原创的艺术作品、自然语言翻译和语音合成,和投资组合建议等等。AI技术应用遍地开花的同时,薛澜提醒由此带来的潜在风险和危害不容忽视。

比如,隐私泄露的风险。由于AIGC需要大量数据用于训练和学习,当个人数据被滥用或泄露时,将造成巨大的隐私威胁。再比如,错误判断的风险。薛澜举例,“在医疗诊断中,如果AI模型错误地给某人诊断为患有某种疾病,可能会导致健康人接受不必要的医务治疗,导致不良后果,甚至危及生命。”

薛澜。

此外,AIGC还可能带来失业的风险。来自高盛的一份报告称, 人工智能可以取代3亿个全职工作岗位,完成美国和欧洲四分之一的工作任务。OpenAI研究人员发布论文显示,约80%美国人工作将被AI影响。“随着生成式人工智能技术的普及,越来越多的职业可能会被自动化替代,将对经济社会稳定等方面产生负面影响。”薛澜说。

AIGC带来的潜在风险远不止于此,还有生成虚假信息、侵犯知识产权等问题,甚至存在安全隐患——比如黑客攻击、病毒入侵可能会导致数据泄露、系统瘫痪等。

“当然人们更加担心的是技术发展轨迹的不可掌控性,以及出现无法逆转的社会影响。”薛澜认为,正是这种高度不确定性和风险,让人工智能治理问题成为利益相关者共同关心的话题。全社会对人工智能治理的关注和呼声也比以往任何时候都更加强烈。

南都记者注意到,今年4月,上千名学者包括图灵奖获得者联名签署公开信,呼吁暂停AIGC的研究,建立更加坚实的人工智能治理体系。

不久前,上百名专家联名发起警惕AI公开信,建议将AI风险等级与流行病、核武器并列。签署人包括三家全球顶尖AI公司的CEO——“ChatGPT之父”、OpenAI创始人兼CEO萨姆·阿尔特曼,谷歌DeepMind公司CEO戴米斯·哈萨比斯,以及美国Anthropic公司的CEO达里奥·阿莫代伊。微软和谷歌公司的多名高管也在名单之中。

02 / 如何应对AIGC带来的风险与挑战?

为回应这一关切,各界都做出了自己的努力。

如何应对AIGC带来的风险与挑战?薛澜回顾中国人工智能治理的发展历程发现,“我们已经经过了回应式治理,集中治理,正在迈入敏捷治理时代。”

具体而言,他提到在2020年之后,国家针对人工智能应用中浮现的各种应用风险及社会影响,迅速完善了针对数据、算法、平台等的相关法律法规,进入多部门集中治理阶段。

2021年9月,科技部发布《新一代人工智能伦理规范》,2022年3月,中共中央办公厅 国务院办公厅共同发布《关于加强科技伦理治理的意见》 ,其中皆提出了人工智能的敏捷治理。薛澜注意到,这些文件相继提出敏捷治理原则后,探索适宜的人工智能治理模式开始备受关注。

今年4月,中央网信办发布了《生成式人工智能服务管理办法征求意见稿》,旨在规范生成人工智能服务市场秩序,保障公民法人和其他组织的合法权益,维护国家安全和公共利益。在薛澜看来,该政策的出台体现了中国政府对人工智能技术和产业发展的高度重视,以及对于生成式人工智能服务的规范化管理的决心,也展示了政府监管部门在敏捷治理方面的实践探索。

“我相信通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作敏捷治理的模式正在浮现。”薛澜说。

着眼未来,针对如何继续推进人工智能发展与治理的协调问题,薛澜也提出了自己的建议。

他认为,首先在监管的层面上,应当进一步明确监管框架和法律法规,建立合理的治理框架,完善相关法律法规,明确各方的责任和义务,规范生成式人工智能技术的使用和管理。

其次,应加强开发行业技术标准和规范,同时探索技术手段,助力技术监管,制定和完善生成式人工智能技术的技术标准和规范,确保技术和产品的质量和可靠性,同时探索各种技术手段,助力人工智能的监管与治理。

再者,企业应强化风险管理,加强对生成式人工智能技术的风险管理,及时识别和处理潜在的安全漏洞和风险事件,同时建立事件应对预案,及时有效处理各类事件。

最后加强公众及社会沟通也不容忽视。薛澜认为,应加强公众及社会沟通,提高全社会对生成式人工智能技术的认识和理解,增强公众的风险意识和安全意识。此外还应鼓励社会监督,引导社会各界积极参与生成式人工智能技术的治理,发挥舆论监督和社会监督的作用,促进技术创新和社会和谐发展。

南方都市报(nddaily)、N视频报道

出品:南都数字经济治理研究中心

南都记者 胡耕硕

▊ 返回搜狐,查看更多

责任编辑:

发布于:云南大理南涧彝族自治县