广州地铁广告价格揭秘!

广州地铁广告价格揭秘!

广州地铁是广州市城市轨道交通系统的主要组成部分,是广州市民生活中不可或缺的交通工具之一。经过多年的发展,广州地铁已经成为了广告投放的重要场所,吸引了众多企业的关注。那么,广州地铁广告的价格到底是多少呢?本文将为您揭秘广州地铁广告价格的真相。

一、广州地铁广告的种类

在了解广州地铁广告的价格之前,我们需要了解广州地铁广告的种类。根据不同的位置和形式,广州地铁广告可以分为车厢内广告、车站站台广告、站台升降机电视广告、LED屏幕广告等多种形式。其中,车厢内广告分为车厢头部、车厢侧面、座椅后面、车体广告等多种形式。

二、广州地铁广告的价格

广州地铁广告的价格是影响企业是否进行广告投放的重要因素之一。根据市场调研,广州地铁广告的价格具有较大的波动性,其价格受到多种因素的影响,包括广告形式、广告位置、广告周期以及广告数量等因素。一般来说,广州地铁广告的价格会根据投放的位置和形式而产生较大的差异。例如,广州地铁车辆内投放车体广告,价格约为20万元/列/月,而在车厢内投放广告的价格就相对便宜一些,一般在1万元/月左右。对于站台广告而言,尤其是在重要的换乘站点,广告的价格会更高,一般在万元/月左右,而普通车站的广告价格则在2万-3万元/月左右。此外,广告的投放周期也是影响价格的重要因素之一,长期投放的广告价格相对于短期投放的广告价格更为优惠。

三、广州地铁广告的投放策略

广州地铁广告的投放策略是影响广告投放效果的重要因素之一。投放广告的策略需要综合考虑多种因素,包括广告形式、广告位置、投放时间等因素。在广州地铁广告投放过程中,一般会采用多种形式的广告定位策略,包括品牌塑造、产品推广、特殊节日推广等多种形式。例如,在广州地铁中投放品牌塑造广告,这种广告常常具有比较明显的视觉效果和品牌形象展示效果。而在特殊节日或者重要的活动期间,广告的投放往往会更加频繁和密集,以达到更好的宣传效果。此外,在广州地铁的车站站台上投放广告,可以达到更好的宣传效果。

四、广州地铁广告的优势

广州地铁作为城市轨道交通系统的重要组成部分,其广告具有多种优势。首先,广州地铁的覆盖面积较广,涵盖了广州市核心商业区、居民区、旅游景点等多种重要地区。其次,广州地铁的客流量相当大,可以吸引更多的目标受众。最后,广州地铁的广告形式多样,可以针对不同的投放需求进行定制化投放,提高广告的投放效果。

总结

总的来说,广州地铁广告的价格具有较大的波动性,其价格受到多种因素的影响。在广告投放过程中,需要综合考虑多种因素,包括广告形式、广告位置、广告周期以及广告数量等因素。广州地铁广告具有多种优势,其中包括广告覆盖面广、客流量大等特点,可以满足企业的不同投放需求。在广州地铁广告投放过程中,需要采用多种形式的广告定位策略,提高广告的投放效果。

问答话题

1. 广州地铁广告的价格是如何计算的?广州地铁广告的价格是受到多种因素的影响,包括广告形式、广告位置、广告周期以及广告数量等因素。一般来说,广州地铁广告的价格会根据投放的位置和形式而产生较大的差异。2. 广州地铁广告的投放策略是如何制定的?广州地铁广告的投放策略需要综合考虑多种因素,包括广告形式、广告位置、投放时间等因素。在广州地铁广告投放过程中,一般会采用多种形式的广告定位策略,包括品牌塑造、产品推广、特殊节日推广等多种形式。3. 广州地铁广告的优势是什么?广州地铁广告具有多种优势,其中包括广告覆盖面广、客流量大等特点,可以满足企业的不同投放需求。同时,广州地铁的广告形式多样,可以针对不同的投放需求进行定制化投放,提高广告的投放效果。

广州地铁广告价格揭秘!特色

1、炫酷时装随心变,DIY打造更有趣,彰显侠士个性品位

2、你可以对杂志文章进行收藏,收藏后的文章会被展示在收藏夹。你的收藏数据会被在线保存

3、飞雪连天最新版

4、妖精的尾巴官方授权手游,纯正的游戏体验。

5、随时随地查看附近的战友动态,关注好友的每一次精英瞬间,follow心目中大神动态,做合格的迷弟迷妹!

广州地铁广告价格揭秘!亮点

1、实景导览,立体实景地图,将虚拟与现实融合;

2、【千万用户好评】

3、合并功能能够将多条记事合并为一条。导出功能能够将一条或多条记事以文件形式导出到手机公共文档目录中。

4、电竞帮致力于用心服务每一个热爱电竞游戏的玩家,为广大游戏玩家发挥更大的价值。

5、数百种滤镜调色任你选择

xuankushizhuangsuixinbian,DIYdazaogengyouqu,zhangxianxiashigexingpinweinikeyiduizazhiwenzhangjinxingshouzang,shouzanghoudewenzhanghuibeizhanshizaishouzangjia。nideshouzangshujuhuibeizaixianbaocunfeixueliantianzuixinbanyaojingdeweibaguanfangshouquanshouyou,chunzhengdeyouxitiyan。suishisuidizhakanfujindezhanyoudongtai,guanzhuhaoyoudemeiyicijingyingshunjian,followxinmuzhongdashendongtai,zuohegedemidimimei!對(dui)話(hua)科(ke)學(xue)家(jia)曾(zeng)毅(yi):中(zhong)國(guo)大(da)模(mo)型(xing)水(shui)平(ping)不(bu)及(ji)GPT-4,我(wo)為(wei)何(he)簽(qian)名(ming)支(zhi)持(chi)暫(zan)停(ting)巨(ju)型AI研(yan)發(fa)?

2023年(nian)3月(yue)29日(ri),非(fei)營(ying)利(li)組(zu)織(zhi)未(wei)來(lai)生(sheng)命(ming)研究(jiu)所(suo)(Future of Life)发表(biao)壹(yi)封(feng)公(gong)開(kai)信(xin),呼(hu)籲(xu)暂停研发比(bi)GPT-4更(geng)強(qiang)大的(de)人(ren)工(gong)智(zhi)能(neng)系(xi)統(tong)至(zhi)少(shao)6個(ge)月,包(bao)括(kuo)特(te)斯(si)拉(la)CEO馬(ma)斯克(ke)、Stability AI的首(shou)席(xi)執(zhi)行(xing)官(guan)莫(mo)斯塔(ta)克(Emad Mostaque)等(deng)在(zai)內(nei)的1000多(duo)名該(gai)領(ling)域(yu)的專(zhuan)家、科技(ji)人員(yuan)、產(chan)業(ye)高(gao)層(ceng)都(dou)在這(zhe)封公开信上(shang)签了(le)名,在这封信上, 我們(men)也(ye)看(kan)到(dao)了一位(wei)中国科学家的名字(zi)—曾毅(中国科学院(yuan)自(zi)動(dong)化(hua)研究所人工智能倫(lun)理(li)與(yu)治(zhi)理中心(xin)主(zhu)任(ren))。

这封公开信,雖(sui)無(wu)法(fa)律(lv)效(xiao)力(li),但(dan)是(shi)引(yin)起(qi)了公眾(zhong)对人工智能治理的問(wen)題(ti)的空(kong)前(qian)關(guan)註(zhu),我们特別(bie)找(zhao)到曾毅主任,问他(ta)是否(fou)方(fang)便(bian)談(tan)一下(xia)为何在这封公开信上签名。他回(hui)復(fu)得(de)很(hen)果(guo)斷(duan):“肯(ken)定(ding)可(ke)以(yi)說(shuo),而(er)且(qie)要(yao)说清(qing)楚(chu)。”在对话中,我们也向(xiang)他提(ti)了一个比較(jiao)尖(jian)銳(rui)的问题:“AI领域的技術(shu)研发落(luo)後(hou)是更可怕(pa),還(hai)是繼(ji)續(xu)研发人工智能帶(dai)来的潛(qian)在風(feng)險(xian)更可怕?”曾毅的觀(guan)點(dian)很明(ming)確(que):“用(yong)一種(zhong)競(jing)爭(zheng)的視(shi)角(jiao)来分(fen)析(xi)这个问题的時(shi)候(hou)就(jiu)會(hui)使(shi)人不理性(xing),中国目(mu)前的水平还沒(mei)達(da)到GPT-4,我贊(zan)同(tong)的是发展(zhan)信息(xi)處(chu)理能力接(jie)近(jin)GPT-4的大模型,但是在伦理安(an)全(quan)治理方面(mian)的規(gui)制(zhi)与思(si)考(kao)要遠(yuan)远超(chao)越(yue)GPT-4这樣(yang)的大模型的研发。”

在与曾毅的对话中,我们还請(qing)教(jiao)了以下问题:

①如(ru)果用暂停六(liu)个月換(huan)取(qu)时間(jian)窗(chuang)口(kou),我们最(zui)急(ji)需(xu)解(jie)決(jue)人工智能带来的哪(na)些(xie)負(fu)面影(ying)響(xiang)?

②大模型的技术原(yuan)理並(bing)没有(you)被(bei)完(wan)全弄(nong)清楚,就被大规模推(tui)向普(pu)通(tong)用戶(hu),这是不是一种不负責(ze)任的做(zuo)法?

③用大量(liang)數(shu)據(ju)“投(tou)餵(wei)”的訓(xun)練(lian)方法,是否真(zhen)的能讓(rang)人工智能产生意(yi)識(shi)?

④通過(guo)了圖(tu)靈(ling)測(ce)試(shi),就意味(wei)著(zhu)(zhe)人工智能擁(yong)有了“人類(lei)智能”嗎(ma)?

⑤国内大模型在兩(liang)三(san)个月内“紮(zha)堆(dui)推出(chu)”,有哪些潜在风险?

⑥應(ying)对人工智能时代(dai)的到来,孩(hai)子(zi)们应该從(cong)小(xiao)就开始(shi)学習(xi)人工智能課(ke)程(cheng)吗?

以下为对话内容(rong):

暂停超过GPT-4水平的巨型人工智能研发很有必(bi)要

騰(teng)訊(xun)科技:您(nin)在暂停超过GPT-4水平的巨型人工智能研发公开信上签了名,是在公开信公布(bu)之(zhi)前,就已(yi)經(jing)收(shou)到了邀(yao)約(yue)吗?

曾毅:在这个信发起之前,确實(shi)是通过了不同的渠(qu)道(dao)在向我们发出邀请。但是我真正(zheng)签字也是在它(ta)发布之后。

我之所以支持这样一个倡(chang)議(yi)确实是基(ji)於(yu)我对現(xian)在人工智能的大模型快(kuai)速(su)地(di)介(jie)入(ru)到社(she)会服(fu)務(wu)當(dang)中的擔(dan)憂(you)。因(yin)为在GPT3.5的时候,它的隱(yin)患(huan)就已经顯(xian)现了。到了GPT4发布的时候,它的能力不限(xian)于文(wen)本(ben)的交(jiao)互(hu),已经到了多模態(tai)的内容生成(cheng),曝(pu)露(lu)出来的风险会更多。

GPT系列(lie)跟(gen)以前的人工智能的发展模式(shi)非常(chang)不一样。以前的人工智能,比如我做一个人臉(lian)识别的系统,人脸的信息是什(shen)麽(me)样的,輸(shu)出可能有多少类?其(qi)实相(xiang)对来说都是可預(yu)期(qi)的。但是现在GPT的数据是互聯(lian)網(wang)的数据,这些数据中包含(han)“誰(shui)说过什么”都不可预期,另(ling)外(wai)一端(duan)谁去(qu)问什么问题也不可预期。问了问题之后,ChatGPT的反(fan)饋(kui)是什么样的,更不清楚。这样一来,就至少有三重(zhong)不确定性,使得未来人工智能在服务于人类社会的时候,一旦(dan)它存(cun)在潜在的风险,它將(jiang)以什么样的模式和(he)速度(du)去放(fang)大?这个真是非常難(nan)以预期的。

可以说它在带給(gei)我们超級(ji)能力的同时,带给我们的风险也是巨大的。所以就像(xiang)公开信中提到的,我们準(zhun)備(bei)好(hao)了让这样的技术替(ti)代我们原本很滿(man)意的工作(zuo)吗?我们准备好让这种文本生成的技术去幹(gan)擾(rao)甚(shen)至替代人类的文明吗?还有对于技术的安全伦理道德(de)方面是不是让它做好了准备,去服务于这么廣(guang)泛(fan)的用户?公开信中提到的一系列的问题,没有一个问题我们做好了准备,但是它的大规模的应用已经开始了。

所以那(na)个时候大家说中国应不应该做?我说这个问题不用討(tao)論(lun),中国很快就会出来。要担心的问题是一个地方会有幾(ji)套(tao)大模型出来。我们现在这个现狀(zhuang)就是这样的。大学裏(li)可能有两三套大模型都是基礎(chu)模型,科研院所甚至更多,产业更是数不勝(sheng)数。倒(dao)是我从来没有发现某(mou)一个人工智能企(qi)业说我絕(jue)对不做大模型。几乎(hu)可以这样说,人工智能企业现在都在布局(ju)大模型的研究。但是,很少有人说我们如何去防(fang)範(fan)这些风险。

这是那封公开信的意義(yi)和價(jia)值(zhi)。正因为我们对于可能的潜在的风险还完全没有准备好,但是已经开始过早(zao)、过于激(ji)進(jin)地嘗(chang)试,所以我覺(jiao)得暂停6个月是必要的,先(xian)去解决潜在的风险,我们先好好地思考一下。

能力达到GPT4这个层次(ci)的大模型已经能夠(gou)满足(zu)我们很多的需求(qiu),那么我们要不要先做基于不超越GPT-4这个能力的产业化的应用,然(ran)后同步(bu)地解决它潜在的问题?但是,比它性能再(zai)高等的人工智能的大模型是不是能先暂緩(huan)?我觉得这个既(ji)是这封信的初(chu)衷(zhong),也是我签这封公开信的动機(ji)。

腾讯科技:是不是中国还没到GPT-4的水平,我们可以先继续?

曾毅:我認(ren)为是这样的。目前中国没有任何一个人工智能的大模型达到GPT-4的能力,所以我赞同的是发展信息处理能力接近GPT-4的大模型,但是在伦理安全治理方面的规制与思考远远超越GPT-4这样的大模型的研发。

腾讯科技:那为什么是6个月?如果做这些准备,6个月够吗?

曾毅:我觉得6个月是一个倡议,6个月是一个可以尝试的时段(duan)。能够取得一定的效果一定比不做准备要强很多。但是,我们在6个月之内,我们是否能够充(chong)分思考相关的风险,并做到防范?我觉得不是,这个是不够的。

这封信当中也講(jiang)了至少暂停6个月,盡(jin)可能地解决这个问题。最关鍵(jian)的是它里面提到了一个倡议,大家是不是能够坐(zuo)下来去开发公共(gong)的人工智能安全協(xie)议,伦理道德檢(jian)测的框(kuang)架(jia),以使得为未来做好准备。我觉得如果是6个月之内把(ba)我们潜在的伦理道德的问题解决了,也許(xu)可以尝试構(gou)造(zao)这样的安全协议检测的框架,解决其中现有的绝大部(bu)分的问题,我觉得还是有希(xi)望(wang)的。

腾讯科技:如果这6个月内要解决这些您认为潜在的风险问题,哪类风险我们最需要先解决?这个有没有一个产业界(jie)认可的框架?

曾毅:我觉得人工智能大模型它对于人类非常直(zhi)接的傷(shang)害(hai)形(xing)态是显而易(yi)見(jian)的。第(di)一,人工智能大模型对于整(zheng)个社会的沖(chong)擊(ji)最大的是对社会信任的冲击。现在妳(ni)看的,眼(yan)见不为实,耳(er)聽(ting)也不为实。什么信息当你看到的时候,你的第一反应就是这是真的吗?这是人工智能生成的吧(ba)?你会有这样的认知(zhi)。所以,它对社会信任本身(shen)是一个極(ji)大的挑(tiao)戰(zhan)。就是如何去降(jiang)低(di)对社会信任的冲击?我觉得这个是最嚴(yan)重的问题,它将改(gai)變(bian)几代人。

另外,关乎到个人利益(yi)的部分风险要注意。既然大模型是基于互联网数据,但是互联网很多数据确实难免(mian)涉(she)及个人隐私(si)数据,如何避(bi)免对个人權(quan)利的侵(qin)犯(fan)?我觉得这是个很大的问题。你用别人的照(zhao)片(pian)去做生成,有没有经过别人的允(yun)许?你甚至拿(na)已故(gu)的人的数据做一些生成,这对于家庭(ting)可能的影响,对于死(si)者(zhe)是不是尊(zun)重?这些已经变成非常緊(jin)迫(po)的问题了。

另外就是人工智能生成的技术。我觉得最需要避免的问题就是混(hun)淆(xiao)人与人工智能之间的邊(bian)界。比如说我能不能跟人工智能谈戀(lian)愛(ai)?有些人说未来一代,也许可能不会听老(lao)師(shi)说什么,不会听家長(chang)说什么,而只(zhi)会相信类ChatGPT的产品(pin)说了什么,什么问题都去问ChatGPT类似(si)的产品。这样的话,我会觉得问题就非常大了。

为什么?因为人类的价值观、对于世(shi)界的理解,这种傳(chuan)承(cheng)应该是在人与人之间的,如果你混淆了人与人之间的边界,你说ChatGPT也是一种观点,甚至有些人说我做这个数字人,这是人的另外一种存在的形式。我觉得这些都是非常危(wei)险的观点。为什么?首先人工智能现在没有真正的自我,没有自我的意识,你怎(zen)么能说它是一种人的存在形式?有些人说它是数字克隆(long),那对于人类的克隆,难道它只是把人类一些表征(zheng)的特征克隆下来就是真正意义上的人类的克隆了吗?我觉得这些都是在混淆人与人工智能之间的边界。这是一个非常大的风险。

更关键的是,未来人与人工智能之间的这种交互可能对社会道德存在潜在的冲击。我觉得这个也是非常危险的。我们要传遞(di)什么样的价值观给我们的下一代?比如我们以新(xin)聞(wen)媒(mei)體(ti)行业为例(li),之所以大家会去看記(ji)者寫(xie)的東(dong)西(xi),我觉得两件(jian)事(shi)情(qing)很重要:第一个是真实客(ke)观;第二(er)个就是媒体记者通过自己(ji)的職(zhi)业素(su)養(yang),可以去传递他对社会的认知与分析。我觉得这些东西是人工智能无法替代的,因为人工智能现在还没有真正的理解能力。

还有就是对于信息真实的程度的判(pan)断,人都有基本的判断力,会基于常识做更多的思考。但是对于机器(qi)来讲就很难了。人工智能模型会认为互联网上所说的事情99%是真的。

所以基于以上种种情況(kuang),我觉得人工智能技术每(mei)往(wang)前发展一步,它对于伦理安全方面的考慮(lv)也需要进一步。这个准备我觉得现在不是選(xuan)擇(ze)题,而是必答(da)题,每一个賦(fu)能社会的人工智能技术,都需要有伦理安全道德的框架的约束(shu)。

腾讯科技:除(chu)了用法律框架和治理框架来约束人工智能的发展,还有什么技术手(shou)段可以实现和人类真正意义上的价值对齊(qi)?

曾毅:我觉得构造看似智能信息处理工具(ju)(生成式AI)的这條(tiao)发展道路(lu)它会继续。但是,它不是唯(wei)一的道路。人工智能大模型未来的发展,有了伦理道德的约束、有了管(guan)理规定標(biao)准、甚至是法律,这些是不是就够了?从技术落地的层次来讲,肯定是不够的。这些东西怎么技术化?怎么把它实现在人工智能的系统当中?这有不同的选择。比如你现在可以和人工智能大模型去对话,这些隐含伦理道德风险的问题可以用評(ping)测的方式去评测它,让它去回避可能会对人类产生负面影响的答案(an)。

另一方面就是大模型本身。即(ji)使你用测评的方式、规則(ze)的方式限制它可能回答问题的类型或(huo)者是回答问题的方式,但这并不能證(zheng)明大模型本身就理解了这个内容。它既然没理解,你就很可能会繞(rao)过它防范的方式,使得它去回答你想(xiang)让它回答的一些问题。现在这种尝试很多。ChatGPT不能回答什么问题,道德上规定它不要回答哪些问题,大家就换其他的途(tu)徑(jing)去勾(gou)引它回答哪些问题。很多成功(gong)的例子。这就证明这种防范不是完全有效的。

所以说未来人工智能只有具备真正的道德的基础,道德的直觉,具备道德推理的能力,真正理解为什么人类采(cai)用这样的道德规范,而不是用规则灌(guan)输给它,那它才(cai)能真正地实现我们说的有道德的人工智能。

我们现在希望人工智能秉(bing)持人类的道德规范,但是我们也要知道人类的道德规范也是在不断地演(yan)化的。所以,人工智能作为人类的一面鏡(jing)子去演化,能够幫(bang)助(zhu)我们人类更好地看清我们人类的未来,所以,我不觉得只要满足于人类道德的约束就是人工智能道德的終(zhong)点。人与人工智能的希望达到的理想的共生状态应当是人工智能的演化,也能帮助人类的进步,也使得人类的伦理道德的框架不断地演进。

腾讯科技:回到这封公开信,您在国内也做了一个調(tiao)查(zha),您觉得我们现在在AI领域的技术研发落后是更可怕,还是说继续无止(zhi)境(jing)地研发更可怕?

曾毅:当人们去思考如果我不发展是不是就落后了,采用一种竞争的视角来分析这个问题的时候就会使人不理性。我们做的关于暂停人工智能大模型研究的这个调研现在大概(gai)有一千(qian)多人通过互联网參(can)与,遍(bian)布全国各(ge)个省(sheng)市(shi)。總(zong)体的观点来讲现在是挺(ting)明显的。大概有将近40%的人是同意暂停人工智能大模型研究的;大概有25%的人是不同意暂停人工智能大模型研究的;有大概5%的人认为应该暂停所有人工智能大模型的研究 ,先把它的伦理安全框架做好。还有大概百(bai)分之十(shi)几、二十的人会认为你暂停大模型也没啥(sha)用,这个问题反正也不那么容易解决。

这是一个基本的统計(ji)。但是让我看来很欣(xin)慰(wei)的是在人工智能的大模型的研究者里,有25%以上的人会认为现在暂停超越GPT-4能力的大模型的研究是很有意义的事情。他们作为利益的最相关者有将近四(si)分之一的人是赞同的,这个是值得关注的。

另外,有很多人不是研究人工智能大模型的,但是他是人工智能的研究者,可能走(zou)的是不同的路径。这一部分人同意暂停人工智能大模型的比例显著是更多的。所以,我们也可以看到当你走出人工智能大模型的利益相关方来看,更理性地来分析这个问题,離(li)人工智能界越远的人对于暂停人工智能大模型越认可。比如人文社科领域、认知科学与心理学领域的人,认同暂停人工智能大模型的会更多。人文社科领域的学者更关切(qie)的这些,比例显著高于人工智能的从业者。这个也对于像我这样的人工智能的从业者也提出一种警(jing)醒(xing),就是发展技术的同时关注社会的影响。

腾讯科技:您的同行有没有跟您争论过这件事?

曾毅:有的。甚至有像我一样同时从事技术研究,但是也关注人工智能伦理的学者表示(shi)了不同意见。他们觉得暂停不能解决问题,你就尽可能地快速地通过技术治理的方式解决问题就好了,而不是说暂停下来它的研究。

但是,我的看法仍(reng)然是这样的,如果说GPT-4这样能力的信息处理工具的潜在风险已经让我们焦(jiao)頭(tou)爛(lan)額(e)了,每天(tian)都出现人工智能给大家惹(re)的麻(ma)煩(fan),现在几乎可以这样说。那如果我们真的没有准备好,我们是不是可以先把它的已知风险解决掉(diao)再去继续?但是我想不同的人有不同的出发点,不管是不是暂停,发展人工智能技术不管它达没达到GPT-4的能力,开展伦理安全框架的研究,并且在研制的过程中就把伦理安全框架内置(zhi)到这个模型当中,在提供(gong)服务之前完全地融(rong)合(he)和充分地考虑伦理安全的风险,并完善(shan)这个伦理安全的测试,我觉得至少这样做是特别必要的,比之前只是发展它的信息处理能力要强得多。

腾讯科技:公开信的约束力有多大?它只是给人一种影响和一种倡议?

曾毅:我们可以看到签这个公开信背(bei)后的科学家们做出了非常负责任地选择。我们在公开信签名的作者当中既可以看到人工智能的图灵獎(jiang)的獲(huo)得者Yoshua Bengio,也可以看到老一代的人工智能的开拓(tuo)者,比如说伯(bo)克利大学的Stuart Russell教授(shou),以及关联神(shen)经网絡(luo)提出者John Hopfield教授,他们都是最了解神经网络进展的人,但是为什么大家做出共同的选择?一方面我想是一个价值观的倡導(dao)。但是它的作用方面,我想通过这个公开信是團(tuan)結(jie)了大家共同去研发它的安全伦理的协议和检测的平臺(tai),使得在学术和产业界当中不僅(jin)仅是通过这个事件提升(sheng)公众的意识,更关键的是促(cu)成采取行动,至于这个问题本身是不是由(you)于暂停来解决的?我觉得只要这个问题解决了,哪怕说企业界自己把这个问题解决了,假(jia)設(she)说两个禮(li)拜(bai)就能解决,我相信这些学者也了樂(le)见其成。所以,我觉得它的目的是帮助我们去解决问题,它的约束力是很低的。

但是据我所知,我们已经有相关的学者在尽其所能地联络不仅仅是国内的,也有国外的企业,希望做出更负责任的共同承諾(nuo)。所以我想它已经成为一个公众关注的事件,已经发揮(hui)了一定的作用,已经引起了人工智能大模型研究者的重视。我们下面希望看到的是产学研界协同采取行动。一方面是构建(jian)安全伦理框架,并实施(shi)安全伦理框架。第二个是从源(yuan)头創(chuang)新上提出真正能够实现有道德的人工智能的科学的进展,才是真正对人类来说负责任的创新,负责任的行为,我们才能真正憧(chong)憬(jing)人类与人工智能和諧(xie)共生的未来。

腾讯科技:未来在人工智能治理方面,公司(si)、科研机构、和国家都分别应该承担哪些责任?

曾毅:首先人工智能的发展,特别是生成式人工智能的发展和应用确实是一个多利益相关方治理的框架。首先要开发一套人工智能的产学研方要进行治理自治的框架。先把能避免的问题尽量避免掉。第二步就是在人工智能管理的层面是一定要有规制的。所以你看到我们国家网信辦(ban)在去年发布的《互联网信息深(shen)度合成管理规定》和前几天发布的《生成式人工智能管理办法意见草(cao)案征求意见稿(gao)》都是在这样的背景(jing)下誕(dan)生的,也是多部委(wei)协作的机制。

人工智能的監(jian)管是一个机制复合体,相关部門(men)例如科技部、工信部、网信办,甚至我们的安全部门都发挥着不同的作用。我想更关键的是,来自公众的力量非常关键,人工智能的发展一旦引起了社会的问题,来自于公众的反馈,来自于媒体的反馈,这些对于人工智能的自律自治、頂(ding)层监管是一个非常必要、甚至未来有可能是主导性的互補(bu)。

面对大模型技术的“黑(hei)箱(xiang)”,我们应该警惕(ti)些什么?

腾讯科技:OpenAI的创始人承认并没有完全搞(gao)懂(dong)ChatGPT的運(yun)行原理,就把它推向了普通的用户、推向了大规模的应用,这是不是一种不负责任的做法?

曾毅:我觉得他们这样做的另外一个初衷是去收集(ji)大量的人类反馈来完善他们的创造。所以,你能够明白(bai)它为什么要公开?包括商(shang)机,我想这个都是明显地来自于他们的訴(su)求。但是你讲它是不是已经做了它应该做的负责任的行为,它在2022年初就完成了ChatGPT的研发,花(hua)了几个月的时间去做测试,应该说已经做出了初步的努(nu)力,它很显然不够,因为当他们把这个技术擴(kuo)散(san)在互联网上的时候相关的隐患就已经出现了,也就证明准备还是不充分的。所以,也就证明了暂停6个月大模型的倡议的价值。

我想未来的人工智能企业确实是需要更负责任地创新。可以看到我们国内大模型的研究机构所发布的大模型几乎是在二三月份(fen)的时候开始宣(xuan)布,到四月份就发布,它们经过的伦理安全检测就更少。所以我特别希望能提醒相关领域的企业和服务方,我们做的不仅仅是变革(ge)社会的工具,更关键的是赋能社会发展的平台,这个时候对于社会的责任,我们别无选择、必須(xu)承担。

腾讯科技:您认为“大力出奇(qi)跡(ji)”的人工智能大模型发展路径,是可持续的最優(you)路径吗?

曾毅:我印(yin)象(xiang)中有一次跟领域内学者的讨论,大家当时说人类处于一个轉(zhuan)折(zhe)点,我们现在甚至可以扮(ban)演上帝(di)的角色(se),因为以前是上帝来设计人,现在是我们人可以设计未来的人工智能。我很难赞同这样的观点。为什么这样说?如果人工智能模擬(ni)人腦(nao)的演化过程,经歷(li)的是物(wu)竞天择、適(shi)者生存,和大自然和谐共处,基于此(ci)来延(yan)展未来的人工智能,是比较安全的。

而现在,从一个隨(sui)机的神经网络开始让它跟環(huan)境交互、自主演化,最终人类犯过的錯(cuo)誤(wu)它都可能犯一遍。如果它在一个模拟环境中,把所有犯过的错误都犯一遍,那还好。但是,如果把它放到真实的环境中跟人去交互,跟生态去交互,它犯错的过程带来的风险和隐患就直接作用于人了。

所以,我觉得以大规模数据驅(qu)动的方式构造的只能是智能信息处理的工具,再发展下去就是看上去超级智能的工具,但是,它没有自我、也不会产生意识,也很难成为所謂(wei)的人类的夥(huo)伴(ban)或者是社会准成员。

我认为人工智能发展到现在,其实跟人工智能最早的願(yuan)景已经非常不一样了,在达特茅(mao)斯会议上,关于人工智能愿景(补充英(ying)文)原文讲的是“人类智能的方方面面都能够被精(jing)确地描(miao)述(shu),并且我们用机器能够模拟人类智能的方方面面的话,就可以认为这样的机器具有人工智能”。

但是我们现在看产业界的人工智能,其实是有大规模的数据,有所预期的输出形式,然后用一种数学优化的方式去拟合数据从输入到输出之间的关系。但是,机器中间处理的过程可以跟“人类智能”没有任何关系。

如果偏(pian)要把它叫(jiao)做人工智能的话,我把它叫做data intensive的AI,就是数据智能。但是真正的人工智能首先最重要的恐(kong)怕不是数据,而是机制。人类的大脑经历了数億(yi)年演化,它不是短(duan)期学习的结果。如果机器能在不同尺(chi)度刻(ke)畫(hua)智能的方方面面,模仿(fang)它的机制,这样才是最初定义的真正意义上的人工智能。这样的模拟人脑的人工智能,拥有人类数亿年演化的经驗(yan),受(shou)这个啟(qi)发构造的人工智能也能避免很多潜在风险。

腾讯科技:目前没有人能解釋(shi)为什么被投喂过这么多数据之后,人工智能会出现“湧(yong)现能力”,即使这样,您也认为人工智能不能产生意识吗?

曾毅:我认为目前所谓的涌现其实还是一种误解。应该说以前的人工智能的模型从来没有基于如此大规模、如此多模态的数据进行训练,产生如此多的参数,意义是什么?其实是应对不确定性。所以只管感(gan)受,我们觉得它能回答很多复雜(za)的问题。其实这种能力首先来自于数据本身,互联网级别的数据,基本能覆(fu)蓋(gai)正常人能想到的所有问题。它利用这种统计的显著性,再加(jia)上一定的随机的变量产生的答案会让你觉得在别的地方没太(tai)看到过。这是一个基础。

至于说它表现出来的不可预期性,我总体上感觉目前大家还是有点想多了。基于统计显著性,随机生成的能力,它的表现力是非常豐(feng)富(fu)的,但是即使如此,这并不代表着模型本身真正产生了所谓的理解能力。对于ChatGPT来讲,首先剛(gang)才我们说了统计的显著性发挥了重要的作用,大规模的数据作为一个基础,人类反馈的强化学习使得它的答案不是最优,而是更接近人类的期望。

背后其实还有很多的规则。比如你让它分析问题,它总是分为两类——这个事情有正面的意义,也有反面的意义。从正面列几条原因,反面来列几条原因。这其实在背后都是有人工的模板(ban)的。所以你会觉得“ChatGPT好理性啊(a)”。但是人的话反而并不是那样的。很多时候人会持一个明确的观点,反应出你的信念(nian)。

人与人工智能的危险关系

腾讯科技:那到底(di)如何测量这个机器是不是真的聰(cong)明?之前我们有图灵测试,现在我们可能看到越来越多的報(bao)道说某个人工智能研发通过了图灵测试,图灵测试还有效吗?

曾毅:首先当图灵在写《Computing machinery and intelligence》这个文章(zhang)的时候就讲到,测试智能的方式应该是多种多样的。对话的方式只是其中的一种方式。换句(ju)话说我并不认为ChatGPT通过了图灵测试。你让接觸(chu)过ChatGPT的很多人再去看人的回答和ChatGPT的回答的时候,其实他是很容易區(qu)分出来人和ChatGPT的回答的。因为ChatGPT的回答过于接近人类的需求,看上去过于完美(mei),使得很容易分辨(bian)这是不是来自一个“真人”的回答。

人工智能的“智能程度”未来到底用什么去衡(heng)量?首先图灵自己就不觉得“图灵测试”是唯一的方式。他文章结尾(wei)就谈到你还可以构造一个小机器人,让它学习如何认识世界的事物,可以用这种方式去衡量一个智能。所以,智能的衡量本身就不存在黃(huang)金(jin)的标准。

但是,如果说与人类的智能相类比,认知学家提出的“多元(yuan)智能”的理论就讲了人类的智能是方方面面的,而且人类不擅(shan)长做所有的事情,他可能有些方面表现得是很突(tu)出的。比如有些人数学抽(chou)象思維(wei)能力很强,但是他可能藝(yi)术方面不一定很强。所以,多元智能的理论讲到了人类的智能方方面面,不需要特别完美,有些方面可能非常突出,但是某一方面的突出也不能推断出来它在其他方面也很突出。我觉得未来人工智能如果成为社会的准成员,我们期望的也并不是一个在方方面面都超越人类的社会的准成员。

我觉得“有缺(que)点”的人工智能可能从一个自私的人类来看似乎比什么方面都比人类强的人工智能在社会的接受度上也许会更高一些。所以,我不觉得通过所谓的图灵测试是一件非常可怕的事情。它是尽早地让我们意识到了所谓的图灵测试的局限性。但是另一方面我也不觉得我们有必要去尋(xun)求这样的黄金的标准,反而是多元的智能理论它告(gao)诉我们智能的本質(zhi)是在于自适应性,是在于多元的发展。我觉得这些可能会更重要。

腾讯科技:所以我们和ChatGPT谈恋爱是永(yong)远不可能做到的是吗?

曾毅:ChatGPT回答问题会说“我认为、我想”,但是,它说的这个“我”是不存在的。因为它说的这个“我”其实只是一个符(fu)號(hao)的象征。你可以认为这是程序(xu)给它的一种模式。所以,它没有真正的自我感知的能力,也很难在这个基础之上发展出来这个自我的意识。你刚才讲到我们未来是不是可以跟ChatGPT谈恋爱?它可以假裝(zhuang)跟你谈恋爱,但是它没有自我,没有真正的感受。我会认为现在的GPT家族(zu)的技术确实是看似相当智能的信息处理,这种用户体验会越来越极致(zhi),但是,它仍然是看似智能的信息处理,仍然不是真正意义上的“理解”。

腾讯科技:未来人与人工智能应该是什么样的关系?

曾毅:如果把技术发展脈(mai)络放到更长的历史(shi)当中来看,它总是使人回歸(gui)到人应当在的这个位置上,或者是把人类解放出来做更具创造性的工作。但是,现在人工智能进展的方式是蠻(man)力的替代。在相关工作还没有完全准备好的时候,人工智能以一种试探(tan)、尝试的方式去改变社会,社会现在是一种被动的方式去应对,而不是我们所期待(dai)的主动地去迎(ying)接技术的变革,更多的人是疲(pi)于应对的。

所以,有些人会以仇(chou)视技术的方式去变革反馈,我觉得它的根(gen)源在于获得技术赋能的这些变革者如何帮助社会做出更自适应的过程,使得这个社会能够更好地接受这样的技术。我们作为技术创新者不能止步于“我做出来,让我们看看技术能给我们的社会带来什么样的改变”,你要帮助这个社会去适应,帮助这个社会去找到人类的价值。我觉得人类的价值一定不止步于未来给人工智能提供更多标注的数据,它一定是使得人类回到人类该做的工作上去。

我记得在一次訪(fang)谈節(jie)目中,节目中有很多父(fu)親(qin)母(mu)亲,当时就讲到未来人工智能会不会把大家工作都替代了?我当时就讲到一个观点,也许未来我们需要重新定义“什么叫做工作”,“我们和工作之间的关系”,“人是不是通过工作来证明自己的价值”?以前不被认为是工作的一些事情未来可能成为新的工作类型。比如说在家里照顧(gu)自己的孩子,照顾家里的老人,从事一些社会服务,可能都是未来的工作形态,这些工作需要人类的情感交互,这是人工智能最难去替代的。复杂的情感交互恐怕只有人能够胜任。而且,它使得我们人真正回到了人的本位。很多时候对于家庭成员的陪(pei)伴,对于下一代的培(pei)养,我相信就算(suan)人工智能能替代其中部分的步驟(zhou)我觉得也是非常蹩(bei)腳(jiao)的。

腾讯科技:应对人工智能时代的到来,现在的孩子要培养哪些能力呢(ne)?

曾毅:现在有很多家长也是非常焦虑,就觉得我的孩子是不是应该尽早地接触人工智能?我印象当中也许2017年的时候,当时在中国科技館(guan)做了一个科普的活(huo)动,结束的时候就有教育(yu)系统的人来问我,你作为一个人工智能的学者,如果我们做中小学的人工智能教育,你的建议是什么?后来过了一两年,甚至看到有类似的書(shu)出现——《为幼(you)兒(er)園(yuan)小朋(peng)友(you)写的深度学习教材(cai)》,我当时觉得这样的尝试都是非常没有意义的。

为什么?人工智能是一个高速发展的学科。我们如何定义人工智能?如何理解人工智能?这些都在日新月異(yi)地变化。而传递给幼儿园、小学生的相关的,我更希望是生活的智慧(hui),当你给小朋友们讲这就是人工智能、人工智能就是这样处理信息的,我会觉得也许我把他们未来的思考空间縮(suo)小了。所以,我当时给那个教育系统的工作人员的建议是“小朋友不要把人工智能作为一个学科来学。”

如果真的学有余(yu)力的话,就是让孩子们学一门心理学,学认知心理学,让他对人本身有更多的认识——人类的智慧到底是怎么回事?我们的内心是什么样的?人如何为人?让孩子们做更多的思考。第二,我觉得要向德国和法国学习,就是初中、高中去学习哲(zhe)学。在更年輕(qing)的时候去思考这些问题比我们工作之后几十歲(sui)的时候再去反思这样的问题有价值大多了。

我们现在的教育确实是很多时候把学生慢(man)慢地变成工具,他们甚至没有时间去思考自己未来的时候就已经被放在未来的賽(sai)道上了。所以我觉得家长真的不要那样焦虑,因为技术的发展它最后留(liu)给人类的实際(ji)上就是屬(shu)于人类的空间。属于人类的空间就应该以人类的方式去开展。我很喜(xi)歡(huan)前《三联周(zhou)刊(kan)》的主編(bian)舒(shu)可文老师的一本书,是讲城(cheng)市的夢(meng)想的。他当时就讲人类的城市就是一半(ban)规劃(hua),一半野(ye)蛮的生长。规划那部分你用技术去改变,野蛮的生长这个部分你就让人与人之间的交流(liu)去驱动。人与人工智能的关系也是这样的。我最反感的观点叫做使人工智能无处不在。因为我觉得不管是它发展的階(jie)段还是它本来应该在这个社会中所处的地位都应该是适度地使用,把应该留给人的空间留给人。技术可以去变革,可以去赋能的地方可以去尝试,但是我们发展技术的目的是为了人类更好地生存,更好地发展。不是用技术去为人类划一个句号。

腾讯科技:全世界有这么多国家,大家有不同的文化,那人类有没有一个共同的关于人工智能的终级梦想?

曾毅:目前在全球(qiu)共识的层面比较认可的是作为工具的人工智能。所以,这个是在联合国教科文组织的《人工智能伦理建议书》当中希望去闡(chan)释的一个愿景,就是人工智能作为一种工具和赋能性的技术赋能全球的可持续的发展。但是,我们对于人工智能的愿景确实认知有不同,日本认为人工智能应该发展为社会的准成员和伙伴,西方认为人工智能只是工具,中国可能介于两者之间。但是,这些不同的愿景,不同的价值观都是塑(su)造人工智能不同的尝试。我们未来希望探索(suo)的应当是人与人工智能共享(xiang)的一个最小的伦理原则的集合。

这个最小的伦理原则的集合是不同的文化之间能够达成的共识,这是第一步。第二步,人与人工智能再次达成共识。这个作为人与人工智能共生社会的一个基石(shi)。未来的国际交往需要一个伦理的最小集。人与人工智能的伦理也需要这样的一个最小集。但是我想这不是终点。真正的终点是最大化我们应该做什么的表述。真正去促进穩(wen)健(jian)地、可持续地发展。返(fan)回搜(sou)狐(hu),查看更多

责任编輯(ji):

发布于:山东泰安肥城市