广告审核:必须每条都过吗?

广告审核:必须每条都过吗?

在进行广告投放前,我们都需要经过广告审核这一环节。很多广告主会担心,广告审核一定要每条都过吗?下面就从几个不同的角度来详细阐述。

1. 广告监管机构角度:

广告监管机构是保护消费者权益的守门员,他们会根据广告法规范来审核广告。如果广告违反了法规,那么监管机构就会对该广告进行处罚,严重的甚至会导致企业被关停。所以从这个角度来看,广告审核必须每条都过,否则就有可能被处罚,损失惨重。

但是,消费者对广告的理解并不一定和监管机构的解读一致。比如在某些词语、图片的使用上,监管机构可能会认为是违规的,但是消费者可能只是觉得这个广告太烦了而已,丝毫没有觉察到违规。因此,广告审核不是绝对的,需要有一个平衡的点。

2. 广告主角度:

广告主往往会急于投放广告,因为广告的时效性很强,如果错过了最佳时机,可能会浪费很多预算。所以,他们会希望广告审核可以快速通过,这样能够确保广告在目标用户面前尽快展现。但是如果广告审核不过,他们也不会轻易放弃这笔预算,而是会多次提交审核,直到过关为止。

对于广告主来说,是否每条广告都必须过审没有一个绝对的答案,主要是取决于他们自己的风险承受能力和目标预算。如果时间紧迫、预算不足,他们可能会选择跳过审核直接投放。不过,这种做法风险很大,容易给企业带来不必要的麻烦。

3. 消费者角度:

广告的最终目的是为了吸引消费者的眼球,帮助企业实现销售目标。如果广告不具备吸引力,或者虚假夸大,那么消费者很容易就会对此产生反感,对品牌产生负面印象。所以,广告审核的目的也是为了保护消费者的利益。

对于消费者来说,他们希望能够看到真实、客观的广告,不希望被虚假广告误导。所以,如果一个广告不符合实际情况,或者存在不实宣传的问题,那么它就应该被审核不通过。

4. 广告审核的标准:

广告审核的标准是由广告监管机构制定的,但是这个标准是会不断调整和完善的。目前,广告审核主要关注以下几个方面:

1.广告内容是否违反法规:比如是否存在虚假宣传、误导消费者等问题。

2.广告是否合规:比如内容是否涉及政治敏感话题、性别歧视、种族歧视等问题。

3.广告形式是否合理:比如是否存在独立网页广告、弹窗广告等形式。

所以,如果广告内容、形式、形象都符合监管机构的标准,那么这种广告就可以被审核通过。但是需要注意的是,每个国家的广告审核标准都不相同,需要根据当地的法规和规范来审核广告。

总结

综上所述,广告审核不是一种绝对的操作,应该在保证合规的前提下,尽可能做到对消费者、企业、监管机构多方面的平衡。同时,广告主也需要对广告进行合理规划,提前做好广告审核的准备工作,以免出现不必要的风险。

问答话题

1. 广告审核一定要每条都过吗?

根据监管机构的规定,每条广告都应该经过严格审核。如果广告存在违规问题,那么监管机构会对其进行处罚。但是从广告主和消费者的角度来看,不是每条广告都必须过审,需要根据具体情况来决定。

2. 广告审核最重要的标准是什么?

广告审核最重要的标准是符不符合法规。广告法规是广告审核的根本,如果广告违反了法规,那么就有可能会被监管机构处罚,甚至有可能会导致企业的倒闭。

3. 广告审核是否应该有统一的标准?

在不同的国家和地区,广告审核的标准可能有所不同。因为广告审核不仅仅是为了保护消费者的合法权益,同时也是为了促进经济发展。因此,广告审核应该是一个相对灵活的过程,需要兼顾各方面的利益。

广告审核:必须每条都过吗?随机日志

打开输入法英文模式,直接启动英文写作助手,无需离开您当前的输入环境即可使用辅助英文写作的各项功能,向您提供海量词汇选择,帮助您快速输入长词、生僻词、词组,向您推荐当前输入的同义词,让您文采横溢更多,通过谷歌翻译向您提供在线的翻译结果收起

1、晒渔获:和千万钓友分享渔乐、切磋钓技,晒渔获,相互交流,共同提升;

2、完成此操作后,您必须将员工PC添加到控制台。在这里,您可以为所有PC使用全局IP或主机名,但使用的端口与转发端口相同。

3、分为围棋启蒙、死活大师、实战练习大板块。

4、解决已知问题,优化用户体验;升级微信sdk;

5、全新版本首发上线,服务光明,沟通你我;着眼光明,联通世界

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>對(dui)生(sheng)成(cheng)式(shi)AI要(yao)做(zuo)好(hao)人(ren)工(gong)把(ba)關(guan) 保(bao)證(zheng)人類(lei)擁(yong)有(you)“最(zui)終(zhong)決(jue)定(ding)權(quan)”

南(nan)都(dou)數(shu)字(zi)經(jing)濟(ji)治(zhi)理(li)研(yan)究(jiu)中(zhong)心(xin)研究員(yuan)楊(yang)博(bo)雯(wen)發(fa)布(bu)《生成式AI倫(lun)理與(yu)治理倡(chang)議(yi)書(shu)》。

國(guo)家(jia)新(xin)壹(yi)代(dai)人工智(zhi)能(neng)治理專(zhuan)業(ye)委(wei)员會(hui)主(zhu)任(ren)、清(qing)華(hua)大(da)學(xue)蘇(su)世(shi)民(min)书院(yuan)院長(chang)、人工智能国際(ji)治理研究院院长薛(xue)瀾(lan)

7月(yue)6日(ri),以(yi)“智聯(lian)世界(jie) 生成未(wei)來(lai)”為(wei)主題(ti)的(de)2023世界人工智能大会在(zai)上(shang)海(hai)世博中心開(kai)幕(mu)。昨(zuo)日上午(wu),由(you)南方(fang)都市(shi)報(bao)、清华大学人工智能全(quan)球(qiu)治理研究院主辦(ban),中国科(ke)協(xie)-復(fu)旦(dan)大学科技(ji)伦理与人类未来研究院和(he)上海人工智能實(shi)驗(yan)室(shi)协办的“人工智能創(chuang)新与治理”論(lun)壇(tan)順(shun)利(li)召(zhao)开。

本(ben)次(ci)论坛邀(yao)請(qing)了(le)多(duo)位(wei)来自(zi)国內(nei)外(wai)的大咖(ka)专家參(can)与,中国法(fa)学会副(fu)会长、最高(gao)法原(yuan)副院长江(jiang)必(bi)新,清华大学公(gong)共(gong)管(guan)理学院院长、科技发展(zhan)与治理研究中心主任朱(zhu)旭(xu)峰(feng),清华大学惠(hui)妍(yan)講(jiang)席(xi)教(jiao)授(shou)、電(dian)子(zi)系(xi)长聘(pin)教授周(zhou)伯(bo)文(wen)現(xian)場(chang)发表(biao)主题演(yan)讲,中歐(ou)数字协会主席魯(lu)乙(yi)己(ji)、联合(he)国大学駐(zhu)澳(ao)門(men)研究所(suo)研究主管塞(sai)爾(er)吉(ji)·斯(si)汀(ting)克(ke)威(wei)奇(qi)則(ze)通(tong)過(guo)視(shi)頻(pin)連(lian)線(xian)参会。

AI換(huan)臉(lian)詐(zha)騙(pian)、大模(mo)型(xing)生成錯(cuo)誤(wu)信(xin)息(xi)、人工智能的版(ban)权歸(gui)屬(shu)爭(zheng)议……聚(ju)焦(jiao)生成式AI潛(qian)在的風(feng)險(xian)与問(wen)题,南都数字经济治理研究中心在论坛上重(zhong)磅(bang)发布《生成式AI伦理与治理倡议书》(下(xia)稱(cheng)《倡议书》)。

據(ju)了解(jie),這(zhe)是(shi)国内首(shou)份(fen)由智庫(ku)媒(mei)體(ti)发起(qi)、跨(kua)行(xing)业联動(dong)发布的生成式AI治理与伦理倡议书,截(jie)至(zhi)发布當(dang)天(tian)已(yi)獲(huo)得(de)近(jin)40位专家署(shu)名(ming)支(zhi)持(chi)。

倡议背(bei)景(jing) AI生成内容(rong)“以假(jia)亂(luan)真(zhen)”如(ru)何(he)區(qu)分(fen)?

当天论坛上,南都数字经济治理研究中心介(jie)紹(shao)这份倡议书的出(chu)爐(lu)过程(cheng)——前(qian)後(hou)修(xiu)訂(ding)11次,從(cong)撰(zhuan)寫(xie)到(dao)发布歷(li)時(shi)一個(ge)多月,共收(shou)到十(shi)余(yu)份、總(zong)計(ji)上萬(wan)字的反(fan)饋(kui)意(yi)見(jian),最终形(xing)成七(qi)大原则和七大建(jian)议。

倡议书提(ti)到,当前,基(ji)於(yu)生成式AI技術(shu),已经誕(dan)生了文章(zhang)生成、智能对話(hua)、AI换脸、語(yu)音(yin)合成、表情(qing)操(cao)縱(zong)等(deng)多種(zhong)應(ying)用(yong),廣(guang)泛(fan)影(ying)響(xiang)了教育(yu)、影视、傳(chuan)媒等一眾(zhong)領(ling)域(yu)。隨(sui)著(zhe)技术不(bu)斷(duan)发展,生成式AI也(ye)帶(dai)来了一系列(lie)问题。

今(jin)年(nian)4月,一起“網(wang)聊(liao)10分鐘(zhong)骗走(zou)百(bai)万”的案(an)例(li),揭(jie)示(shi)了AI换脸和AI擬(ni)聲(sheng)技术佯(yang)裝(zhuang)好友(you)实施(shi)诈骗的问题。在国外,也有ChatGPT“捏(nie)造(zao)”罪(zui)名、生成虛(xu)假案例发生,有关AI生成内容涉(she)嫌(xian)侵(qin)犯(fan)知(zhi)識(shi)產(chan)权的討(tao)论更(geng)是争论不休(xiu)。

面(mian)对当前愈(yu)发“以假乱真”的AI生成内容,我(wo)們(men)到底(di)該(gai)如何区分?当AI生成内容造成侵权或(huo)違(wei)法问题,責(ze)任認(ren)定如何劃(hua)分?面对無(wu)法抵(di)禦(yu)的技术发展浪(lang)潮(chao),又(you)该如何从各(ge)个層(ceng)面去(qu)規(gui)範(fan)、監(jian)管?

南方都市报社(she)黨(dang)委书記(ji)、总裁(cai)戎(rong)明(ming)昌(chang)在致(zhi)辭(ci)中表示,伴(ban)随着新技术新应用的出现,虚假信息、AI诈骗、隱(yin)私(si)泄(xie)露(lu)、版权争议等成为困(kun)擾(rao)用戶(hu)和行业的新问题,大模型的迅(xun)猛(meng)发展,也对数字经济提出更高的安(an)全和治理要求(qiu)。希(xi)望(wang)这份《倡议书》能为当前技术的规范与监管提供(gong)参考(kao),推(tui)动AI治理从原则倡议走向(xiang)实操,讓(rang)技术创新造福(fu)人类生活(huo)。

七大原则 关註(zhu)人工把关、敏(min)捷(jie)治理

此(ci)次《倡议书》提出了七大原则——確(que)保安全、客(ke)觀(guan)公正(zheng)、信息披(pi)露、尊(zun)重自主、可(ke)问责可追(zhui)溯(su)、人工把关、敏捷治理。

其(qi)中确保安全原则提到,相(xiang)关企(qi)业或組(zu)織(zhi)应采(cai)取(qu)足(zu)夠(gou)的管理措(cuo)施和技术手(shou)段(duan),積(ji)極(ji)防(fang)范生成式AI技术产品(pin)的漏(lou)洞(dong)攻(gong)擊(ji)风险,並(bing)在产品的整(zheng)个生命(ming)周期(qi)中保证用户隐私及(ji)个人信息的安全。

信息披露原则指(zhi)出,在符(fu)合法律(lv)和政(zheng)策(ce)规定、技术可行的范圍(wei)内,建议相关企业或组织持續(xu)向公众和客户提供必要的相关技术方法的原理和应用信息,如是什(shen)麽(me)、做什么、如何做;及时披露相关的安全、法律、伦理风险和已采取的应对手段,必要时提供明确的使(shi)用建议和輔(fu)助(zhu)工具(ju)。

結(jie)合此前“外賣(mai)騎(qi)手困在算(suan)法裏(li)”“熱(re)搜(sou)買(mai)榜(bang)”等事(shi)件(jian),南都数字经济治理研究中心认为,该條(tiao)旨(zhi)在敦(dun)促(cu)技术开发方或者(zhe)平(ping)臺(tai)积极主动地(di)向公众披露信息,回(hui)应公众的疑(yi)惑(huo),給(gei)消(xiao)費(fei)者和用户更好的服(fu)務(wu)。

考慮(lv)到技术发展迅速(su),对于生成式AI发展的潜在风险,很(hen)難(nan)完(wan)全事先(xian)“确保”一定不出错,为此《倡议书》在多位专家的建议下,引(yin)入(ru)“敏捷治理”原则,提出相关企业或组织应不断調(tiao)整、優(you)化(hua)、完善(shan)多层次治理体系、治理機(ji)制(zhi)、治理工具,及时发现并解决可能风险。

《倡议书》還(hai)提出“人工把关原则”,认为生成式AI服务或产品的評(ping)估(gu)、審(shen)核(he)、监督(du)、问责与救(jiu)济環(huan)節(jie)应始(shi)终确保有一定比(bi)例的人工参与,做好必要的把关工作(zuo),始终保证人类拥有“最终决定权”,貫(guan)徹(che)以人为本的價(jia)值(zhi)观。

七大建议 標(biao)记AI生成内容 提高算法素(su)養(yang)

在基本原则之(zhi)后,《倡议书》進(jin)一步(bu)提出七大促进生成式AI发展的建议。其中包(bao)括(kuo)生成式AI模型訓(xun)練(lian)的数据合法来源(yuan),明确不得未经用户授权同(tong)意使用人脸、指紋(wen)等生物(wu)识別(bie)信息,尤(you)其重视对未成年人的保護(hu)。

針(zhen)对AI生成虚假信息的问题,《倡议书》建议,对使用生成式AI服务生成或編(bian)輯(ji)的信息内容,相关企业或组织应添(tian)加(jia)能够让公众明确知悉(xi)且(qie)不可刪(shan)改(gai)的标识,以与真实信息区分,并逐(zhu)漸(jian)形成行业标準(zhun)。

在知识产权归属方面,《倡议书》则建议,出于权利保护和激(ji)勵(li)产业加大投(tou)入的考虑,应充(chong)分考虑智力(li)与经济投入較(jiao)高的一方的权益(yi)。

同时鼓(gu)励相关企业或组织积极探(tan)索(suo)生成式AI在教育、政务、科研等领域的应用。有学者提出,基于行业特(te)性(xing)考虑技术落(luo)地的场景,比如在醫(yi)療(liao)診(zhen)断等对生成式内容错误高度(du)敏感(gan)的领域应謹(jin)慎(shen)使用。这一建议也被(bei)吸(xi)納(na)到《倡议书》中。

最后,《倡议书》还向用户发出“提高算法素养”的建议,希望用户“能够意识到算法在网絡(luo)平台和服务中的使用,了解算法的基本工作原理和使用技能”,如此一来才(cai)能在算法社会保护自己,保持人的尊嚴(yan)与价值。

意见反馈 呼(hu)籲(xu)防止(zhi)技术濫(lan)用 保护个人权利

这份由国内智库媒体发起的倡议书,在征(zheng)集(ji)意见階(jie)段即(ji)获得了不少(shao)人工智能领域的专家关注,并收获了諸(zhu)多反馈意见。

论坛当天,南都数字经济治理研究中心透(tou)露,这份《倡议书》截至目(mu)前共争取到近40位专家学者联署,其中包括全国政协委员、高校(xiao)学者、企业代表、律師(shi)等。他(ta)们的专业背景橫(heng)跨人工智能、法律、网络安全、数据隐私、知识产权、人文社科、新聞(wen)传媒等多个领域。

参与此次联署的上海政法学院经济法学院数字法学研究中心主任商(shang)建剛(gang)告(gao)訴(su)南都记者,“协同共治、算法透明、数据質(zhi)量(liang)、伦理先行是生成式人工智能治理的元(yuan)原则,今天发布的《倡议书》是协同治理的一項(xiang)有效(xiao)舉(ju)措,体现了軟(ruan)法治理的原则。倡议的内容与元规则的内容契(qi)合,且更加詳(xiang)实和具体,对行业的自我规制具有参考价值。”

来自业界的代表——科大訊(xun)飛(fei)研究院執(zhi)行院长、认知智能全国重點(dian)实验室副主任王(wang)仕(shi)进表示,“技术发展的过程中,法律、伦理、人文全部(bu)都要跟(gen)进,我们需(xu)要在合法合规、风险可控(kong)的情況(kuang)下,迎(ying)接(jie)人工智能全新发展阶段。”

中国科学院人工智能联盟(meng)标准组成员吳(wu)焦苏则对南都记者表示,生成式AI是具有高阶信念(nian)的大型交(jiao)流(liu)博弈(yi)和大型行动博弈,即使有再(zai)大的算力,也不可避(bi)免(mian)地会出现幻(huan)覺(jiao)现象(xiang),因(yin)此对生成式AI伦理和治理对人类的未来至关重要。他认为,这份《倡议书》的发布意義(yi)重大,期待(dai)对人类AI的正常(chang)发展起到指南针的作用。

值得一提的是,作为公众人物,明星(xing)遭(zao)遇(yu)AI换脸的新闻时有发生。不久(jiu)前,有特效师通过AI换脸技术制作親(qin)吻(wen)女(nv)藝(yi)人的照(zhao)片(pian)或视频引发热议;近期各种明星多巴(ba)胺(an)穿(chuan)搭(da)视频也被指涉嫌侵权;此前甚(shen)至有明星公开称收到“AI换脸”后的勒(le)索视频……

为了呼吁更多人重视AI技术规范使用,这份《倡议书》特别邀请公众人物参与。青(qing)年歌(ge)手炎(yan)明熹(xi)表示,AI本可以让生活更美(mei)好,但(dan)技术的滥用则可能带来傷(shang)害(hai)。知名青年演员藍(lan)盈(ying)瑩(ying)提到,曾(zeng)聽(ting)闻身(shen)邊(bian)朋(peng)友遭遇过“AI换脸”的经历。

蓝盈莹告诉记者,“我们正在经历时代的飞速进步,AI科技的高速发展提高了如今的生产生活效率(lv),方便(bian)了我们的生活,但也伴随着‘风险’,出现了一些(xie)意料(liao)外的伤害。”为此,蓝盈莹呼吁反对AI换脸技术滥用,保护每(mei)个人的权利,推动AI向善发展。“希望我们的时代更加科技化的同时,也可以更加安全。”

专家观点

如何避免AIGC“狂(kuang)飆(biao)”?

薛澜:技术最大风险是不可掌(zhang)控性

昨日上午,在“人工智能创新与治理”分论坛上,国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜以视频演讲的方式,作了主题为《構(gou)建互(hu)动互信机制,推动AI治理敏捷前行》的分享(xiang)。

AIGC大放(fang)異(yi)彩(cai) 但不可忽(hu)视潜在危(wei)害  

根(gen)据瑞(rui)銀(yin)集團(tuan)报告,ChatGPT推出僅(jin)兩(liang)个月后,其2023年1月末(mo)的月活用量已经突(tu)破(po)1億(yi),成为史(shi)上用户增(zeng)长速度最快(kuai)的消费級(ji)应用程序(xu)。有許(xu)多人把这一技术的出现与iPhone或Windows相比,称其为人类技术进步中的重要里程碑(bei)。

在国内,生成式AI市场也风起雲(yun)湧(yong),頭(tou)部企业先后推出各自的大模型。AIGC技术也在不同的领域中大放异彩,如生成原创的艺术作品、自然(ran)语言(yan)翻(fan)譯(yi)和语音合成,和投資(zi)组合建议等等。AI技术应用遍(bian)地开花(hua)的同时,薛澜提醒(xing)由此带来的潜在风险和危害不容忽视。

比如,隐私泄露的风险。由于AIGC需要大量数据用于训练和学習(xi),当个人数据被滥用或泄露时,將(jiang)造成巨(ju)大的隐私威脅(xie)。再比如,错误判(pan)断的风险。薛澜举例,“在医疗诊断中,如果(guo)AI模型错误地给某(mou)人诊断为患(huan)有某种疾(ji)病(bing),可能会導(dao)致健(jian)康(kang)人接受(shou)不必要的医务治疗,导致不良(liang)后果,甚至危及生命。”  

呼吁建立(li)更加堅(jian)实的人工智能治理体系  

AIGC还可能带来失(shi)业的风险。来自高盛(sheng)的一份报告称,人工智能可以取代3亿个全職(zhi)工作崗(gang)位,完成美国和欧洲(zhou)四(si)分之一的工作任务。OpenAI研究人员发布论文顯(xian)示,約(yue)80%美国人工作将被AI影响。“随着生成式人工智能技术的普(pu)及,越(yue)来越多的职业可能会被自动化替(ti)代,将对经济社会穩(wen)定等方面产生負(fu)面影响。”薛澜說(shuo)。

AIGC带来的潜在风险遠(yuan)不止于此,还有生成虚假信息、侵犯知识产权等问题,甚至存(cun)在安全隐患——比如黑(hei)客攻击、病毒(du)入侵可能会导致数据泄露、系統(tong)癱(tan)瘓(huan)等。

“当然人们更加擔(dan)心的是技术发展軌(gui)跡(ji)的不可掌控性,以及出现无法逆(ni)轉(zhuan)的社会影响。”薛澜认为,正是这种高度不确定性和风险,让人工智能治理问题成为利益相关者共同关心的话题。全社会对人工智能治理的关注和呼声也比以往(wang)任何时候(hou)都更加強(qiang)烈(lie)。

南都记者注意到,今年4月,上千(qian)名学者包括圖(tu)靈(ling)獎(jiang)获得者联名簽(qian)署公开信,呼吁暫(zan)停(ting)AIGC的研究,建立更加坚实的人工智能治理体系。

不久前,上百名专家联名发起警(jing)惕(ti)AI公开信,建议将AI风险等级与流行病、核武(wu)器(qi)并列。签署人包括三(san)家全球頂(ding)尖(jian)AI公司(si)的CEO——“ChatGPT之父(fu)”、OpenAI创始人兼(jian)CEO薩(sa)姆(mu)·阿(e)尔特曼(man),谷(gu)歌DeepMind公司CEO戴(dai)米(mi)斯·哈(ha)萨比斯,以及美国Anthropic公司的CEO達(da)里奧(ao)·阿莫(mo)代伊(yi)。微(wei)软和谷歌公司的多名高管也在名單(dan)之中。  

如何应对AIGC带来的风险与挑(tiao)戰(zhan)?  

为回应这一关切(qie),各界都做出了自己的努(nu)力。

如何应对AIGC带来的风险与挑战?薛澜回顧(gu)中国人工智能治理的发展历程发现,“我们已经经过了回应式治理,集中治理,正在邁(mai)入敏捷治理时代。”

具体而(er)言,他提到在2020年之后,国家针对人工智能应用中浮(fu)现的各种应用风险及社会影响,迅速完善了针对数据、算法、平台等的相关法律法规,进入多部门集中治理阶段。

2021年9月,科技部发布《新一代人工智能伦理规范》,2022年3月,中共中央(yang)办公廳(ting)和国务院办公厅共同发布《关于加强科技伦理治理的意见》,其中皆(jie)提出了人工智能的敏捷治理。薛澜注意到,这些文件相繼(ji)提出敏捷治理原则后,探索適(shi)宜(yi)的人工智能治理模式开始備(bei)受关注。

今年4月,中央网信办发布了《生成式人工智能服务管理办法征求意见稿(gao)》,旨在规范生成人工智能服务市场秩(zhi)序,保障(zhang)公民法人和其他组织的合法权益,維(wei)护国家安全和公共利益。在薛澜看(kan)来,该政策的出台体现了中国政府(fu)对人工智能技术和产业发展的高度重视,以及对于生成式人工智能服务的规范化管理的决心,也展示了政府监管部门在敏捷治理方面的实踐(jian)探索。

“我相信通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作敏捷治理的模式正在浮现。”薛澜说。  

规范生成式人工智能技术的使用和管理  

着眼(yan)未来,针对如何继续推进人工智能发展与治理的协调问题,薛澜也提出了自己的建议。

他认为,首先在监管的层面上,应当进一步明确监管框(kuang)架(jia)和法律法规,建立合理的治理框架,完善相关法律法规,明确各方的责任和义务,规范生成式人工智能技术的使用和管理。

其次,应加强开发行业技术标准和规范,同时探索技术手段,助力技术监管,制定和完善生成式人工智能技术的技术标准和规范,确保技术和产品的质量和可靠(kao)性,同时探索各种技术手段,助力人工智能的监管与治理。

再者,企业应强化风险管理,加强对生成式人工智能技术的风险管理,及时识别和處(chu)理潜在的安全漏洞和风险事件,同时建立事件应对預(yu)案,及时有效处理各类事件。

最后加强公众及社会溝(gou)通也不容忽视。薛澜认为,应加强公众及社会沟通,提高全社会对生成式人工智能技术的认识和理解,增强公众的风险意识和安全意识。此外还应鼓励社会监督,引导社会各界积极参与生成式人工智能技术的治理,发揮(hui)輿(yu)论监督和社会监督的作用,促进技术创新和社会和諧(xie)发展。

●人们更加担心的是技术发展轨迹的不可掌控性,以及出现无法逆转的社会影响。

●我相信通过政府学习、行业联动、社会协调等多方面的努力,一个多主体合作敏捷治理的模式正在浮现。

——国家新一代人工智能治理专业委员会主任、清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜

出品:南都数字经济治理研究中心 

统籌(chou):程姝(shu)雯 李(li)玲(ling) 

采写:杨博雯 黃(huang)莉(li)玲 馬(ma)寧(ning)宁 胡(hu)耕(geng)碩(shuo) 趙(zhao)唯(wei)佳(jia) 劉(liu)嫚(嫚) 蔣(jiang)小(xiao)天 赵霖(lin)萱(xuan) 黄慧(hui)詩(shi) 樊(fan)文揚(yang) 实习生 唐(tang)小狄(di)返(fan)回搜狐(hu),查(zha)看更多

责任编辑:

发布于:湖北咸宁通山县