酒店餐饮广告词

酒店餐饮广告词的重要性

酒店餐饮广告词是酒店业最为重要的一项宣传方式之一。许多酒店都会在各种媒体、社交网络上发布各种宣传和推广信息,以吸引更多的消费者。这些广告词可以使潜在的客户了解酒店的特色和餐饮服务,提高他们对酒店的信任和兴趣。所以,酒店餐饮广告词的质量和效果直接影响酒店的经营和口碑。

那么,如何写出符合SEO标准、符合广告法、具有吸引力的广告词呢?下面将介绍一些有用的技巧和方法。

如何写出符合SEO标准的广告词

首先,要注意酒店餐饮广告词一定要与酒店的品牌形象相匹配。这是为了让消费者在阅读广告时,能够对酒店产生认同感和信任感。

其次,要根据目标受众的特点来选择合适的关键词。例如,如果你的目标受众是家庭游客,可以选择一些与家庭有关的关键词,例如“家庭式餐厅”、“家庭套餐”等等。

另外,要注意广告词的标题和描述一定要简洁明了、有吸引力。这不仅可以提高用户的点击率,也可以提高你的网站的排名。

最后,要保持更新和优化。酒店的菜品和服务不断更新,所以广告词也要及时更新,保持新鲜感。同时,也要不断优化广告词,使其更符合SEO要求。

酒店图片

如何编写符合广告法的广告词

酒店餐饮广告词在编写时,一定要遵守广告法规定,不得使用虚假、夸张或误导性语言。

首先,广告词一定要真实可靠。不得使用虚假的宣传方式来误导消费者。例如,不得使用“最棒”、“最好”、“最优惠”等超出事实的描述。

其次,广告词中不能有夸张和误导性的语言。例如,不得使用“全网最低价”、“全部免费”等夸张的宣传语言。

最后,注意广告词中不能出现与性别、种族、宗教信仰等相关的内容,避免引起不必要的争议和误解。

美食图片

结论

编写符合SEO标准和广告法的酒店餐饮广告词,是一项需要不断努力和优化的工作。只有在每个环节都把握好,才能写出真正有吸引力而又真实可信的广告词。通过精心编写的酒店餐饮广告词,可以吸引更多的消费者,提高酒店的业绩和知名度。

酒店餐饮广告词特色

1、模拟与异性的聊天,可以教你快速摆脱直男印象,获取异性的好感

2、好的玩家总能拥有众多支持,名将不断投入,不会的你可以学;

3、【表情联想】每句话自动转换成表情包,体验聊天新玩法

4、暴力副本,一路激情刷到爆!

5、保全变更信息方便快捷,在线自助调整人员变更信息!

酒店餐饮广告词亮点

1、专业平台智能先进,自主研发一键式授课系统,轻松完成教学互动

2、完善个人简历,会有更多的曝光率。

3、科学探索:通过小实验科学认知等内容为孩子打开自然科学的神秘大门。

4、奖励近战v生命点,逆转,一切皆有可能。

5、每个员工在签出时都会显示很多信息。

moniyuyixingdeliaotian,keyijiaonikuaisubaituozhinanyinxiang,huoquyixingdehaoganhaodewanjiazongnengyongyouzhongduozhichi,mingjiangbuduantouru,buhuidenikeyixue;【biaoqinglianxiang】meijuhuazidongzhuanhuanchengbiaoqingbao,tiyanliaotianxinwanfabaolifuben,yilujiqingshuadaobao!baoquanbiangengxinxifangbiankuaijie,zaixianzizhutiaozhengrenyuanbiangengxinxi!AI狂(kuang)飆(biao)時(shi)代(dai),我(wo)們(men)究(jiu)竟(jing)如(ru)何(he)才(cai)能(neng)相(xiang)信(xin)AI?

作(zuo)者(zhe):陳(chen)永(yong)偉(wei)

來(lai)源(yuan):經(jing)濟(ji)觀(guan)察(cha)報(bao)

導(dao)讀(du)

壹(yi) ||AI工(gong)具(ju)對(dui)人(ren)们的(de)生(sheng)產(chan)力(li)产生了(le)巨(ju)大(da)的推(tui)動(dong)作用(yong),也(ye)給(gei)人们的生活(huo)帶(dai)来了巨大的便(bian)利(li)。但(dan)是(shi),當(dang)AI被(bei)人们大規(gui)模(mo)使(shi)用之(zhi)後(hou),也产生了很(hen)多(duo)問(wen)題(ti)。這(zhe)些(xie)问题中(zhong),最(zui)為(wei)關(guan)鍵(jian)的可(ke)能是五(wu)個(ge)“失(shi)”,即(ji)失業(ye)、失真(zhen)、失格(ge)、失陷(xian)和(he)失控(kong)。

貳(er) ||在(zai)2017年(nian)之后,隨(sui)著(zhe)AI技(ji)術(shu)的突(tu)飛(fei)猛(meng)進(jin),关於(yu)可信AI的技术的研(yan)究也蓬(peng)勃(bo)發(fa)展(zhan)。在學(xue)术領(ling)域(yu),以(yi)可信AI为题的論(lun)文(wen)數(shu)量(liang)不(bu)斷(duan)增(zeng)加(jia),关于滿(man)足(zu)可信AI要(yao)求(qiu)的技术的研究日(ri)益(yi)深(shen)入(ru)。在實(shi)踐(jian)领域,越(yue)来越多的國(guo)家(jia)開(kai)始(shi)按(an)照(zhao)可信AI的標(biao)準(zhun)来涉(she)及(ji)关于AI的规制(zhi)规則(ze)。

三(san)(san) || 要实現(xian)可信AI並(bing)不是壹(yi)件(jian)容(rong)易(yi)的事(shi)情(qing),它(ta)需(xu)要政(zheng)府(fu)、企(qi)业、社(she)會(hui)以及技术等(deng)多方(fang)力量的協(xie)同(tong)才能实现。

圖(tu)片(pian)来源:由(you)無(wu)界(jie) AI生成(cheng)

当地(di)时間(jian)6月(yue)22日,紐(niu)約(yue)南(nan)區(qu)法(fa)院(yuan)作出(chu)判(pan)決(jue):Levidow,Levidow & Oberman律(lv)師(shi)事務(wu)所(suo)因(yin)向(xiang)法院提(ti)供(gong)虛(xu)假(jia)信息(xi),行(xing)为惡(e)劣(lie),被處(chu)以5000美(mei)元(yuan)的罰(fa)款(kuan)。引(yin)起(qi)关註(zhu)的原(yuan)因是,在这例(li)判决中,虚假信息的提供并非(fei)是律师出于利益而(er)故(gu)意(yi)知(zhi)法犯(fan)法,而是因为他(ta)们過(guo)于相信了AI的能力。

今(jin)年3月,該(gai)律所的律师彼(bi)得(de)·洛(luo)杜(du)卡(ka)(Peter LoDuca)和史(shi)蒂(di)文·施(shi)瓦(wa)茨(ci)(Steven Schwartz)接(jie)受(shou)了客(ke)戶(hu)羅(luo)伯(bo)托(tuo)·馬(ma)塔(ta)(Roberto Mata)的委(wei)托,承(cheng)擔(dan)了他和阿(e)維(wei)安(an)卡航(hang)空(kong)公(gong)司(si)之间的一起官(guan)司。由于美国是判例法的国家,法官在进行裁(cai)量时非常(chang)在意已(yi)有(you)的判例,所以按照慣(guan)例,他们需要在起草(cao)的文書(shu)当中將(jiang)已有的案(an)例进行整(zheng)理(li)和綜(zong)述(shu)。相关的案例往(wang)往汗(han)牛(niu)充(chong)棟(dong),如果(guo)依(yi)靠(kao)人力来进行整理,通(tong)常需要很長(chang)的时间。恰(qia)恰在这个时候(hou),ChatGPT火(huo)遍(bian)全(quan)網(wang)。于是,兩(liang)位(wei)律师就(jiu)决定(ding)用ChatGPT来幫(bang)他们完(wan)成这些工作。ChatGPT很快(kuai)就生成出了一份(fen)完整的文书,不僅(jin)格式(shi)工整、论證(zheng)嚴(yan)密(mi),還(hai)特(te)別(bie)加入了很多相关的案例。他们把(ba)这份AI創(chuang)作的文书略(lve)作修(xiu)改(gai)后,就呈(cheng)交(jiao)给了法庭(ting)。

審(shen)案的法官凱(kai)文·卡斯(si)特(Kevin Castel)在读了提交的文书后,对其(qi)中提及的幾(ji)个案例感(gan)到(dao)十(shi)分(fen)疑(yi)惑(huo),在他的印(yin)象(xiang)中,似(si)乎(hu)從(cong)来沒(mei)有聽(ting)过这些案例。在经过了一番(fan)查(zha)找(zhao)之后,他終(zhong)于確(que)認(ren)这些案例根(gen)本(ben)就不存(cun)在。两位律师在接受詢(xun)问时辯(bian)稱(cheng),自(zi)己(ji)只(zhi)是用AI輔(fu)助(zhu)撰(zhuan)寫(xie)了文书,当看(kan)到文书中引用的那(na)些案例时,只是覺(jiao)得AI帮他们找到了自己不知道(dao)的案例,并不是故意捏(nie)造(zao)案例欺(qi)騙(pian)法庭,屬(shu)于无心(xin)之失。盡(jin)管(guan)如此(ci),卡斯特法官依然(ran)认为两位律师“放(fang)棄(qi)了自己應(ying)尽的責(ze)任(ren)”,且(qie)在文书被質(zhi)疑之后,两人“依然繼(ji)續(xu)堅(jian)持(chi)虚假意見(jian)”。基(ji)于以上(shang)判断,卡斯特法官作出了处罚决定。

这起律师因引用ChatGPT提供的虚假信息而被罚的事件看似荒(huang)誕(dan),但卻(que)折(zhe)射(she)出一个非常重(zhong)要的问题——在AI狂飙的时代,我们究竟如何才能相信AI?

AI时代的五个“失”

近(jin)年来,随着算(suan)力和算法技术的突破(po),AI技术取(qu)得了突飞猛进的发展,迅(xun)速(su)从科(ke)幻(huan)走(zou)入了人们的日常生活。尤(you)其是在去(qu)年11月ChatGPT橫(heng)空出世(shi)之后,生成式AI向人们展示(shi)出了自己的強(qiang)大力量,各(ge)種(zhong)大模型(xing)如雨(yu)后春(chun)筍(sun)一樣(yang)湧(yong)现,并实现了大规模的商(shang)业化(hua)。现在,人们已经可以用非常低(di)的成本用上ChatGPT、Stable Diffusion以及Midjourney等AI产品(pin)。

AI工具对人们的生产力产生了巨大的推动作用,也给人们的生活带来了巨大的便利。但是,当AI被人们大规模使用之后,也产生了很多问题。这些问题中,最为关键的可能是五个“失”,即失业、失真、失格、失陷和失控。

(1)失业

所謂(wei)“失业”,顧(gu)名(ming)思(si)義(yi),即AI带来的技术性(xing)失业问题。由于AI的生产效(xiao)率(lv)要遠(yuan)高(gao)于人類(lei),因此在AI工具被普(pu)遍使用之后,很多人类的崗(gang)位就面(mian)臨(lin)被替(ti)代的風(feng)險(xian)。尤其是生成式AI崛(jue)起之后,AI替代的目(mu)标人群(qun)已不再(zai)限(xian)于从事低收(shou)入重復(fu)性工作的工人,很多高薪(xin)的白(bai)领人士(shi)也面临着被AI替代的风险。

(2)失真

所谓“失真”,指(zhi)的是AI(主(zhu)要是生成式AI)的应用讓(rang)人们很難(nan)对文字(zi)、图片,乃(nai)至(zhi)視(shi)頻(pin)的真偽(wei)进行鑒(jian)别,“有图有真相”由此成为了歷(li)史。

“失真”问题可以分为“假的真”和“真的假”。其中,“假的真”指的是人们在使用AI工具时,AI在未(wei)经人授(shou)意的情況(kuang)下(xia)生成的虚假內(nei)容。雖(sui)然这些内容的生成未必(bi)出于人们主观的恶意,但在某(mou)些情况下却可能引发很多的麻(ma)煩(fan),比(bi)如本文开頭(tou)提到的案例。

而“真的假”则是人们基于主观故意,利用AI工具进行的造假行为。前(qian)几年,在“深度(du)伪造”(deepfake)技术面世后,就有人利用这一技术进行詐(zha)骗、編(bian)造虚假信息、傳(chuan)播(bo)色(se)情内容等違(wei)法犯罪(zui)行为。但在当时,由于使用这一技术的成本很高,所以相关犯罪的发生率并不是特别高。随着生成式AI的廣(guang)泛(fan)应用,造假的成本大幅(fu)降(jiang)低,犯罪分子(zi)只需要用非常低的成本就可以輕(qing)易造出大量的虚假内容,而要識(shi)别这些内容的成本则大幅上升(sheng)了。可以預(yu)见,此消(xiao)彼长之下,如不加以幹(gan)涉,利用AI来造假犯罪的情况将会出现暴(bao)漲(zhang)。

(3)失格

所谓“失格”,指的是在AI的应用过程(cheng)中,会出现一些违背(bei)倫(lun)理道德(de)的问题。

第(di)一个典(dian)型问题就是歧(qi)视。以語(yu)言(yan)模型为例,由于语言模型是以互(hu)聯(lian)网上的文本資(zi)料(liao)作为訓(xun)練(lian)材(cai)料的,所以如不加干预,它就会将文本当中蘊(yun)含(han)的种族(zu)歧视、性别歧视等内容也一并继承下来。虽然现在的AI提供商已经用了很多方法来克(ke)服(fu)这个问题,比如OpenAI在训练ChatGPT时就应用了“人类反(fan)饋(kui)的强化学習(xi)”(Reinforcement Learning from Human Feedback,簡(jian)称RL-HF)算法来对其进行糾(jiu)正(zheng),从而让其輸(shu)出的内容质量有了很大的改善(shan),但在现实中,AI模型输出歧视性内容的情况依然并不鮮(xian)见。例如,有人曾(zeng)做(zuo)过一个实驗(yan),要求ChatGPT编写一个程序(xu),从一組(zu)简历中挑(tiao)出最具有成为優(you)秀(xiu)科学家潛(qian)质的人。結(jie)果发现,在ChatGPT编写的程序中,性别和种族被作为了解(jie)釋(shi)變(bian)量,白人男(nan)性会被认为比其他人具有更(geng)高的概(gai)率成为优秀科学家。很顯(xian)然,这样的模型是具有非常强烈(lie)的性别歧视和种族歧视色彩(cai)的。

第二(er)个重要问题是信息繭(jian)房(fang)问题。目前,很多App都(dou)应用AI进行个性化推薦(jian)。这时,虽然推荐的内容可以更符(fu)合(he)用户的需要,但久(jiu)而久之,也会让用户陷入信息茧房,难以接觸(chu)到自己不认同的各种信息。信息茧房的潜在危(wei)害(hai)是巨大的:在微(wei)观層(ceng)面,它可能导致(zhi)用户认知能力的退(tui)化;在宏(hong)观层面,它则可能导致群體(ti)观點(dian)的極(ji)化,从而造成不同观点之间群体的对立(li)。

第三个重要的问题是隱(yin)私(si)和信息泄(xie)露(lu)。在AI的训练和使用过程中,都需要用到大量的数據(ju),在这个过程中就很难避(bi)免(mian)搜(sou)集(ji)和使用人们的个人数据,因此就会涉及隐私的利用和泄露问题。尤其是生成式AI普及之后,人们可以很容易地直(zhi)接和AI交互来完成各項(xiang)工作,在此过程中输入的个人信息就面临着被泄露的问题。

(4)失陷

所谓“失陷”,指的是AI难以应对外(wai)部(bu)攻(gong)擊(ji)或(huo)突发情况的干擾(rao)或攻击,从而导致模型难以正常发揮(hui)其作用。

在这些干扰中,有一些是源于非人为因素(su),而另(ling)一些则源于人为的破壞(huai)。具体来說(shuo),这些干扰可以分为如下几种:

第一种是“随機(ji)攻击”。这一类干扰主要是由一些外部因素引发的。比如,在一些特殊(shu)的情况下,某些即时产生的參(can)数可能超(chao)出了模型预先(xian)設(she)定的处理閾(yu)限,这就可能导致AI模型不能正常使用。

第二种是“白盒(he)攻击”。它指的是供给者在知道了AI模型的具体结構(gou)之后,对模型发起的攻击。由于这类攻击是有的放矢(shi),所以其破坏性是非常高的。

第三种是“黑(hei)盒攻击”。这类攻击是相对于“白盒攻击”而言的。在这种情形(xing)下,供给者并不知道作为攻击目标的模型的具体结构,因而只能通过與(yu)模型的交互,观測(ce)输入输出的结果,进而对模型的结构进行推理,并依此发动攻击。以人臉(lian)识别为例,AI是通过脸上的某些关键特征(zheng)来对人脸进行识别的。因此,即使攻击者并不知道原模型的具体结构,但只要通过反复测試(shi)就可以推算出其重点关注的是哪(na)些特征。在破解了这些信息之后,就可以对应地做出骗过AI的“假脸”。

第四(si)类是所谓的盲(mang)盒攻击。在这种情形下,供给者并不知道AI模型的结构,但却可以明(ming)确地知道它判断的规则(类似于我们不知道盲盒中会出现什(shen)麽(me),但却知道其中各种可能性出现的概率)。这时,它们就可以利用规则,发起对应的攻击。

如果无法对上述的几类干扰或攻击进行有效的应对,AI模型在现实当中就是十分脆(cui)弱(ruo)的。

(5)失控

所谓“失控”,指的是人们对于AI的控制将变得越来越难。这个问题分为两个方面:

一方面,最近的AI发展是都是建(jian)築(zhu)在深度学习模型的基礎(chu)之上的,而这类模型的可解释性是非常低的。对于以往的机器(qi)学习模型,无论是回(hui)歸(gui)还是分类樹(shu),人们都可以很容易地解释明白模型的确切(qie)用途(tu),以及模型中每(mei)一个参数的涵(han)义。但是,深度学习模型却是由复雜(za)的神(shen)经网絡(luo)构成的,其中包(bao)含着数以億(yi)計(ji)的参数和神经元,这些神经元之间的关系(xi)錯(cuo)综复杂,人们也难以对其进行解释。

随着ChatGPT的出现,一些学者发现借(jie)助于ChatGPT的能力似乎可以对某些神经网络模型进行解释,这似乎为AI的可解释性带来了一線(xian)曙(shu)光(guang)。不过,这又(you)产生了一个问题:ChatGPT本身(shen)就是一个通过深度学习构建的龐(pang)大模型,甚(shen)至連(lian)它的设计者都坦(tan)承自己并不确知它的强大能力是如何“涌现”出来的。在这种情况下,用ChatGPT去解释其他的深度学习模型就只能算是用未知去解释未知。我们又如何可以知道它的解释是否(fou)是正确的呢(ne)?

既(ji)然在深度学习时代,连AI程序的可解释都做不到,那么希(xi)望(wang)通过直接調(tiao)整程序来对AI进行控制,就是一件更加难以实现的事情了。

另一方面,近年来随着AI技术的发展,AI模型在很多方向上的能力都已经淩(ling)駕(jia)于人类之上。这在让人感到欣(xin)喜(xi)的同时,也让人感到憂(you)慮(lv),因为当AI的能力超越人类之后,萬(wan)一其觉醒(xing)了自我意誌(zhi),那么在《终结者》、《黑客帝(di)国》等電(dian)影(ying)中预言的AI奴(nu)役(yi)人类或毀(hui)滅(mie)人类的劇(ju)情是不是就不再是科幻。

退一步(bu)講(jiang),即使AI并没有觉醒自我意志,只会按照人类的指令(ling)行事,但如果当它的能力凌驾于人类,人类无法随时更改先前下達(da)的指令时,它依然是十分危险的。例如,在不少(shao)关于AI的哲(zhe)学书中,都会提到一个思想(xiang)实验:人类给AI下达了生产鉛(qian)筆(bi)的命(ming)令。铅笔为了完成这个指令,就会不断砍(kan)伐(fa)地球(qiu)上的树木(mu)来制作笔桿(gan)。由于AI在執(zhi)行能力上已经超越了人类,所以人类在发现了先前指令中存在的问题后也难以阻(zu)止(zhi)AI的行为。最终,地球上的树木被砍完了,生態(tai)完全崩(beng)潰(kui),人类也随之灭亡(wang)了。尽管在现实中,这个思想实验所预言的情景(jing)几乎不可能上演(yan),但当人类不再能随时控制AI的行为时,类似的问题就可能会出现,而这可能带来的損(sun)失将是十分巨大的。尤其是,当AI被黑客或入侵(qin)者植(zhi)入了某个非法的目标后,如果AI的使用者不能及时对其进行纠正,那么后果将可能相当严重。

在以上五类问题中,除(chu)了第一个问题“失业”外,其余(yu)四个问题都涉及了AI的可信性问题。不难看到,如果不能有效地回应“失真”、“失格”、“失陷”和“失控”,人们就很难在使用过程当中信任AI这个工具,这无论是对于AI的普及、生产的发展,还是社会的进步而言,都是不利的。也正是因为这个原因,所以实现AI的可信化就成了当前AI领域最为关注的熱(re)点之一。

可信AI的历史和标准

可信AI(Trustworthy AI)的概念(nian)最早(zao)出现在学术界。例如,在2015年的一篇(pian)论文中,就提出了AI要被用户信任所需要满足的一系列(lie)條(tiao)件,包括(kuo)有用性、无害性、自主性、公正性和和邏(luo)輯(ji)性等。然后这个概念被各国政府和国際(ji)组織(zhi)接受,并逐(zhu)步以此为依据建立了相关的法律、法规和指导文件。在2017年之后,随着AI技术的突飞猛进,关于可信AI的技术的研究也蓬勃发展。在学术领域,以可信AI为题的论文数量不断增加,关于满足可信AI要求的技术的研究日益深入。在实践领域,越来越多的国家开始按照可信AI的标准来涉及关于AI的规制规则。仅在最近,美国就发布(bu)了《人工智(zhi)能權(quan)利法案藍(lan)图》,提出了规制AI的五项原则;英(ying)国发布了《支(zhi)持创新(xin)的人工智能監(jian)管方法》,对安全性、透(tou)明性、公平(ping)性、问责制、競(jing)爭(zheng)等问题进行了规定;歐(ou)洲(zhou)議(yi)会通过《人工智能法案》提案的談(tan)判授权草案,其中也体现了可信AI的基本思路(lu)。

在我国,可信AI的概念是由何積(ji)豐(feng)院士2017年在香(xiang)山(shan)科学会议的第36次(ci)学术研討(tao)会上首(shou)次引入的。随后,这一概念就引起了政府和产业界的共(gong)同重视。2017年12月,工信部印发了《促(cu)进新一代人工智能产业发展三年行动计劃(hua)(2018-2020)》,其中对可信AI的基本思想进行了借鉴。然后,包括騰(teng)訊(xun)、阿裏(li)、百(bai)度、京(jing)東(dong)等在内的高科技公司都圍(wei)繞(rao)着可信AI提出了自己的标准和实施规划。

在各个机构的文件中,关于可信AI的表(biao)述略有一些不同。我在对这些文件进行了学习和参考(kao)之后,认为如下几个标准可能是最重要的:

一是穩(wen)健(jian)(robust,又被譯(yi)为魯(lu)棒(bang)),即AI系統(tong)应该具有抵(di)抗(kang)恶意攻击或者外部干扰的能力。这一标准主要是針(zhen)对上面提到的“失陷”问题而提出的。只有当一个AI系统具有充足的稳健性,可以在面临各种攻击或干扰时依然正常工作,履(lv)行其主要職(zhi)能时,它才是安全可靠的,才可能得到用户的信任。

二是透明和可解释(transparent and explainable)。显然,这一标准主要是针对前面的“失控”问题提出的。在实践当中,关于透明和可解释究竟指什么,存在着不小(xiao)的争议性。一些观点认为,这个标准意味(wei)着应该向用户公开所有的AI程序代碼(ma),以及使用的数据。在我看来,这样做不但没有可能而且没有必要。一方面,现在的很多AI都是企业的知识资产,如果强制要求公开代码等核(he)心信息,就意味着严重侵犯知识产权;另一方面,如前所述,在AI进入了深度学习时代之后,即使公开了代码,也很难让人完整理解每一个具体参数背后所蕴含的确切含义。相比之下,我认为比較(jiao)可行的一个思路是,对AI模型中的各个组件都给出清(qing)晰(xi)的功(gong)能说明,让用户知道它们的大致原理究竟如何,到底(di)可以实现哪些功能;对使用的训练数据的来源、样本量、代表性等信息进行标明,并对其可能存在的问题和不足进行说明。这样,既可以让用户做到心中有数,又可以有效保(bao)護(hu)模型开发者的知识产权,从而在两者之间取得一个比较好(hao)的平衡(heng)。

三是可验证(verifiable)。这指的是AI模型应该保证其功能是可評(ping)估(gu)的,保证其生成的内容是可以验证真伪的。这一点,主要是针对前面提到的“失真”问题提出的。一些观点认为,应当要求AI模型的开发者要保证其模型生成内容的真实性。这一点是很难实现的。事实上,所谓生成式AI,其生成的内容本来就是原来的世界中没有的,或者说,就是“假”的。但这种“假”,如果没有对人造成困(kun)扰,就不会产生任何问题。比如,我们用Midjourney生成一張(zhang)梵(fan)高风格的图片来自己欣賞(shang)或者打(da)印出来作为家里的裝(zhuang)飾(shi),那就完全不会对他人造成影響(xiang)。只有当人们用这些生成的内容去进行欺骗,或者这些内容被无意地传播、混(hun)淆(xiao)之后,它的“假”才可能成为一个问题。因此,只要可以通过技术的手(shou)段(duan),将生成的内容和真实的内容区分开,那么“假”就不再会成为问题。

四是公平性(fair)。这指的是,AI模型在开发、训练和应用的过程当中,应当保证公平,不应该对特定的用户群体进行歧视。这一标准涉及很多方面的内容,具体来说,它要求模型在开发階(jie)段,其基本的原理不应该是具有歧视性的;在训练阶段,应该尽量避免使用可能产生歧视性的材料,并应该用技术的手段来对可能产生的歧视问题进行纠正;在应用的过程当中,不应该对不同的人群区别对待(dai)等。

五是隐私保护(privacy)。这一标准主要要求AI模型在训练的过程当中应当尊(zun)重人们的个人信息和隐私,并提升对信息的保护程度,尽量做到不侵犯、不泄露个人信息和隐私。

六(liu)是可问责(accountable)。也就是说,当它出了什么问题,必須(xu)要有人来为这些问题負(fu)责。当然,至少到目前为止,AI还没有觉醒意识。因为不能被视为是和人类一样的主体,无法承担和人类一样的责任,因此为它来承担责任的就必须是某个人。但这个责任究竟应该由AI的开发者,还是AI的使用者来承担,或者说是由雙(shuang)方来进行分担,依然是一个值(zhi)得讨论的问题。

需要指出的是,除了以上的几个标准外,不少文獻(xian)中还将安全性(safe)、包容性(inclusiveness)、被遺(yi)忘(wang)权(right to be forgotten)、为人类造福(fu)等标准列入可信AI的範(fan)疇(chou)。在我看来,这些内容或多或少可以被归并到上面所说的几个标准当中,或者由前面提到的标准闡(chan)发出来。因此限于篇幅,这兒(er)就不再贅(zhui)述了。

用好多方合力实现可信AI

要实现可信AI并不是一件容易的事情,它需要政府、企业、社会以及技术等多方力量的协同才能实现。

首先,政府作为监管者,需要为可信AI制定相关的标准和操(cao)作指南,并依据标准对AI的开发者和使用者进行监督(du)。一方面,它需要根据不同的应用場(chang)景、不同的模型类别制定不同的规则,尤其是对一些必须遵(zun)守(shou)的底线规则做出明确的规定,同时做好和现有法律法规之间的銜(xian)接工作。唯(wei)有如此,AI的开发者和使用者在实践当中才能做到有规可依,而不用被不必要的不确定性干扰。另一方面,它需要扮(ban)演好监督和执法的角(jiao)色。对于一些突出的,或者具有共性的问题,应当及时处理,从而为行业树立相应的规范。这里需要指出的是,由于AI技术目前的发展依然十分迅速,还没有达到一个稳定狀(zhuang)态。这意味着,对于这个过程中出现的问题,政府在处理时应当具有一定的审慎(shen)性,要做到“让子彈(dan)多飞一会儿”,看清楚(chu)了情况再出手,在处理问题时也要注意方式方法。如果盲目下手,管得过快、管得过多,也可能会对AI的发展造成负面的影响。

其次,相关的企业应当对可信AI的具体实现制定具体的实施方案以及詳(xiang)細(xi)的标准。相比于政府,企业是更接近于市(shi)场,也更了解技术的。对于AI模型的技术特征,以及优勢(shi)劣势,它们都要比政府了解得更多。因此,如果说政府的责任是给可信AI提出了一个大的框(kuang)架(jia)的話(hua),那么企业就应该是这个大框架内的具体实践者。它们应该在这个框架下,结合市场和技术的特点,给出更为具体的方案,并采(cai)用自律的方式来对此进行实施。

再次,用户也应该扮演好反馈者和监督者的角色,提出自己的訴(su)求、反映(ying)自己的问题,并对企业实施可信AI的行为进行监督。随着AI的普及,社会上的每一个人都会成为AI的使用者和利益相关者,对于AI的可信性问题,他们是最有发言权的。只有让他们的聲(sheng)音(yin)充分地得到表达,可信AI的标准制定以及相关技术的开发才是最有價(jia)值的。

最后,应当充分依靠技术的力量。相关的规则固(gu)然重要,但归根到底,可信AI的实现还是要依靠技术的力量。事实上,很多利用规则难以解决的问题,都可以用技术的手段得到解决。舉(ju)例来说,在生成式AI产生后,“失真”问题就一直让监管部門(men)非常头疼(teng),但事实上,依靠新的技术,这个问题或許(xu)并不难破解。例如谷(gu)歌(ge)之前就推出了一种肉(rou)眼(yan)不可见,但可以用机器识别的电子水(shui)印技术,将它应用在生成的图像(xiang)或者视频上,就可以有效地保证它们是可以验证的。至于文字内容的可验证性,则可以仿(fang)效新必应(New Bing)搜索(suo)。当它引述某个内容时,会在生成的内容后面附(fu)上参考的文献,这样用户就可以根据需要对生成内容的真伪自行鉴别。

總(zong)而言之,可信AI的实现并非易事,但如果我们用好各方的合力,这个目标就一定可以实现。返(fan)回搜狐(hu),查看更多

责任编辑:

发布于:湖南郴州安仁县