智能电视广告:突破传统营销的新方式!

智能电视广告:突破传统营销的新方式!

1. 智能电视广告的优势

随着科技的不断进步,智能电视已经成为了家庭娱乐中不可或缺的一部分。相比传统电视广告,智能电视广告具有以下优势:

1.1 目标受众更为精准

智能电视通过用户的观看记录、关注点和兴趣爱好等数据,能够更好地为广告主锁定目标受众。与此相比,传统电视广告往往是广撒网,效果难以保证。

1.2 广告内容更加个性化

智能电视广告能够针对用户的不同需求和喜好,提供更加个性化的广告内容。这不仅能够提高用户的观看体验,还能够增强广告主的品牌认知度和购买意愿。

1.3 互动性更强

智能电视广告可以通过互动的形式,让用户参与到广告中来。例如,在广告中加入有奖问答、互动游戏等元素,可以增强用户的参与度和互动性。

2. 智能电视广告的实践案例

不少知名品牌已经开始尝试在智能电视上投放广告,取得了不错的效果。

2.1 京东开门红智能电视广告

京东在2019年春节前,推出了一款名为开门红的智能电视广告。广告借助智能电视平台,推送互动小游戏、为用户定制春节红包等内容,吸引大量用户参与。

2.2 苏宁易购买买买智能电视广告

苏宁易购在2018年广州车展期间,推出了一款名为买买买的智能电视广告。广告通过互动的形式,引导用户参与竞猜游戏,奖品包括了苏宁易购提供的汽车充电器等实用品。

3. 智能电视广告的未来

随着科技的不断发展,智能电视广告也必将迎来更加广阔的发展前景。

3.1 AI技术的应用

随着人工智能技术的不断发展,智能电视广告也能够更好地通过大数据分析,提供更为精准的广告投放解决方案。

3.2 VR和AR的融合

随着虚拟现实和增强现实技术的不断发展,智能电视广告也将借助这些技术,为用户提供更加生动、立体的广告体验。

4. 总结

智能电视广告作为一种新兴的广告形式,具有广阔的发展前景。它通过精准的投放、个性化的内容和互动的形式,能够提高用户的观看体验,提高广告主的品牌认知度和销售额。随着科技不断进步,智能电视广告的未来发展也将更加广阔,我们期待着它的表现。

问答话题

1. 智能电视广告是否违反消费者隐私?

智能电视广告并不会违反消费者隐私。智能电视中的广告投放,取决于用户的个人观看记录、兴趣和行为等数据,但这些数据都是由用户自己授权共享的。同时,智能电视也有完善的隐私保护机制,保障用户的个人隐私。

2. 智能电视广告的投放效果如何?

智能电视广告的投放效果相对比较好。相比传统电视广告,智能电视广告的广告投放更加精准,能够更好地锁定目标受众。同时,智能电视广告的广告内容也更加个性化,增加用户的观看体验。这些都能够提高广告主的品牌认知度和销售额。

智能电视广告:突破传统营销的新方式!特色

1、【订餐服务】铁路订餐服务,已覆盖000+车次,陆续开放中

2、游戏内可以收集金币,解锁更多人物皮肤。

3、仙界中完整的修炼体系让你的战力不断增强,跟着修炼模式来不断提升自己的境界,让自己成为仙域巅峰霸主

4、紫外线改成湿度

5、对于不同的互动乐趣,你可以在这里真正体验和了解不同的互动信息。

智能电视广告:突破传统营销的新方式!亮点

1、专业内容共享和专家信息共享。你可以定居星栈,发表你的个人专业分享。

2、用户背完单词后,软件会为用户统计事实的数量,从而给用户一种成就感。

3、这里有你喜欢的一切,让你不会书不够用,还有热榜让你第一时间看到最新的小说。

4、【类目丰富】服装鞋帽,居家文体,箱包配饰,应有尽有。

5、魔王驾到手游安卓下载

【dingcanfuwu】tieludingcanfuwu,yifugai000+checi,luxukaifangzhongyouxineikeyishoujijinbi,jiesuogengduorenwupifu。xianjiezhongwanzhengdexiuliantixirangnidezhanlibuduanzengqiang,genzhexiulianmoshilaibuduantishengzijidejingjie,rangzijichengweixianyudianfengbazhuziwaixiangaichengshiduduiyubutongdehudonglequ,nikeyizaizhelizhenzhengtiyanhelejiebutongdehudongxinxi。基(ji)辛(xin)格(ge)談(tan)人(ren)工(gong)智(zhi)能(neng):如(ru)何(he)看(kan)待(dai)人工智能時(shi)代(dai)的(de)國(guo)際(ji)秩(zhi)序(xu)?

原(yuan)文(wen):新(xin)京(jing)報(bao)

圖(tu)片(pian)來(lai)源(yuan):由(you)無(wu)界(jie) AI 生(sheng)成(cheng)

從(cong)谷(gu)歌(ge)AlphaGo擊(ji)敗(bai)人類(lei)棋(qi)手(shou),到(dao)ChatGpt引(yin)發(fa)科(ke)技(ji)界熱(re)議(yi),人工智能科技的每(mei)壹(yi)次(ci)進(jin)展(zhan)都(dou)牽(qian)動(dong)著(zhu)(zhe)人們(men)的神(shen)經(jing)。毋(wu)庸(yong)置(zhi)疑(yi)的是(shi),人工智能正(zheng)深(shen)刻(ke)改(gai)變(bian)着我(wo)们的社(she)會(hui)、经濟(ji)、政(zheng)治(zhi)甚(shen)至(zhi)是外(wai)交(jiao)政策(ce),而(er)對(dui)於(yu)解(jie)釋(shi)這(zhe)一切(qie)的影(ying)響(xiang)来說(shuo),過(guo)往(wang)傳(chuan)統(tong)的理(li)論(lun)往往失(shi)靈(ling)。在(zai)《人工智能时代與(yu)人类未(wei)来》一書(shu)中(zhong),著名(ming)外交家(jia)基辛格、谷歌前(qian)CEO施(shi)密(mi)特(te)和(he)麻(ma)省(sheng)理工學(xue)院(yuan)蘇(su)世(shi)民(min)計(ji)算(suan)機(ji)学院院長(chang)胡(hu)滕(teng)洛(luo)赫(he)爾(er)从不(bu)同(tong)角(jiao)度(du)梳(shu)理了(le)人工智能的前世今(jin)生,並(bing)全(quan)面(mian)探(tan)討(tao)了其(qi)发展可(ke)能給(gei)個(ge)人、企(qi)業(ye)、政府(fu)、社会、国家帶(dai)来的種(zhong)种沖(chong)击。幾(ji)位(wei)頂(ding)尖(jian)的思(si)想(xiang)者(zhe)認(ren)為(wei),隨(sui)着人工智能的能力(li)越(yue)来越強(qiang),如何定(ding)位人类的角色(se),將(jiang)是我们在未来的时間(jian)中必(bi)須(xu)长期(qi)思考(kao)的命(ming)題(ti)。以(yi)下(xia)內(nei)容(rong)经过出(chu)版(ban)社授(shou)權(quan)摘(zhai)編(bian)自(zi)《人工智能时代与人类未来》,有(you)刪(shan)改,小(xiao)標(biao)题为摘编者所(suo)加(jia)。

原作(zuo)者 | [美(mei)]亨(heng)利(li)·基辛格 / [美]埃(ai)裏(li)克(ke)·施密特 / [美]丹(dan)尼(ni)尔·胡滕洛赫尔

通(tong)用(yong)人工智能会带来什(shen)麽(me)?

人类和人工智能是否(fou)从不同的角度接(jie)近(jin)同一个現(xian)實(shi),并且(qie)可以優(you)勢(shi)互(hu)補(bu)、相(xiang)輔(fu)相成呢(ne)?還(hai)是说,我们会感(gan)知(zhi)到兩(liang)种不同但(dan)部(bu)分(fen)重(zhong)疊(die)的现实:一种是人类可以通过理性(xing)闡(chan)述(shu)的,另(ling)一种則(ze)是人工智能可以通过算法(fa)说明(ming)的?如果(guo)答(da)案(an)是後(hou)一种,那(na)么人工智能就(jiu)能感知我们尚(shang)未感知也(ye)无法感知的事(shi)物(wu)——不僅(jin)因(yin)为我们沒(mei)有足(zu)夠(gou)的时间以我们的方(fang)式(shi)去(qu)推(tui)理它(ta)们,还因为它们存(cun)在于一个我们的心(xin)智无法概(gai)念(nian)化(hua)的領(ling)域(yu)之(zhi)中。人类对“完(wan)全了解世界”的追(zhui)求(qiu)将会发生改变,人们会意(yi)識(shi)到,为了獲(huo)得(de)某(mou)些(xie)知识,我们可能需(xu)要(yao)委(wei)托(tuo)人工智能为我们获取(qu)知识,并向(xiang)我们回(hui)稟(bing)消(xiao)息(xi)。无论答案是哪(na)一个,随着人工智能追求的目(mu)标愈(yu)加全面和廣(guang)泛(fan),它在人类看来都将越来越像(xiang)一个體(ti)驗(yan)和了解世界的“生灵”—— 一种結(jie)合(he)了工具(ju)、寵(chong)物和心智的存在。

當(dang)研(yan)究(jiu)人員(yuan)接近或(huo)已(yi)然(ran)实现通用人工智能时,这个謎(mi)题只(zhi)会顯(xian)得越发深邃(sui)。正如我们在第(di)三(san)章(zhang)所述,通用人工智能将不会局(ju)限(xian)于学習(xi)和執(zhi)行(xing)特定的任(ren)務(wu);相反(fan),根(gen)據(ju)其定義(yi),通用人工智能将能够学习并执行範(fan)圍(wei)極(ji)广的任务,一如人类所为。開(kai)发通用人工智能将需要巨(ju)大(da)的算力,这可能導(dao)致(zhi)只有少(shao)數(shu)資(zi)金(jin)充(chong)足的組(zu)織(zhi)有能力創(chuang)建(jian)此(ci)类人工智能。与目前的人工智能一樣(yang),盡(jin)管(guan)通用人工智能可能随时被(bei)分散(san)部署(shu),但鑒(jian)于其能力,其應(ying)用有必要受(shou)到限制(zhi)。可以通过只允(yun)許(xu)经批(pi)準(zhun)的组织運(yun)營(ying)通用人工智能来对其施加限制。那么問(wen)题将变成:誰(shui)来控(kong)制通用人工智能?谁来授权对其的使(shi)用?在一个少数“天(tian)才(cai)”机器(qi)由少数组织操(cao)縱(zong)的世界里,民主(zhu)还是可能的嗎(ma)?在这种情(qing)況(kuang)下,人类与人工智能的合作会是何种模(mo)样?

如果通用人工智能真(zhen)的出现在世上(shang),这将是智力、科学和戰(zhan)略(lve)上的重大成就。但即(ji)便(bian)未能如此,人工智能也同样能为人类事务带来一場(chang)革(ge)命。人工智能在应对突(tu)发事件(jian)(或者说意外事件)及(ji)提(ti)供(gong)解決(jue)方案方面展现出的动力和能力使其有別(bie)于以往的技術(shu)。如果不受監(jian)管,人工智能可能会偏(pian)離(li)我们的預(yu)期,进而偏离我们的意图。到底(di)是限制它、与它合作还是順(shun)从它的决定,将不仅仅由人类做(zuo)出。在某些情况下,这将由人工智能本(ben)身(shen)决定;在其他(ta)情况下,则取决于各(ge)种助(zhu)力因素(su)。人类可能參(can)与一场“逐(zhu)底競(jing)爭(zheng)”。

随着人工智能实现流(liu)程(cheng)自动化、允许人类探索(suo)大量(liang)数据,并组织和重構(gou)物質(zhi)和社会领域,那些先(xian)行者可能获得先发优势。竞争壓(ya)力可能会迫(po)使各方在没有足够时间評(ping)估(gu)風(feng)險(xian)或幹(gan)脆(cui)无視(shi)风险的情况下竞相部署通用人工智能。關(guan)于人工智能的倫(lun)理道(dao)德(de)是必不可少的。每个个体的决定—— 限制、合作或顺从——也许会產(chan)生戲(xi)劇(ju)性的后果,也许不会,但当它们匯(hui)合起(qi)来,影响就会倍(bei)增(zeng)。

这些决定不可能是孤(gu)立(li)的。如果人类想要塑(su)造(zao)未来,需要就指(zhi)导每一个選(xuan)擇(ze)的共(gong)同原则達(da)成一致。確(que)实,集(ji)体行动很(hen)難(nan)实现,有时甚至不可能,但缺(que)乏(fa)共同道德規(gui)范指导的个人行动只会讓(rang)人类整(zheng)体陷(xian)入(ru)更(geng)大的动蕩(dang)与变亂(luan)。那些設(she)计、訓(xun)練(lian)人工智能并与人工智能合作的人所能够实现的目标,将达到迄(qi)今人类无法企及的规模和復(fu)雜(za)程度,比(bi)如新的科学突破(po)、新的经济效(xiao)率(lv)、新的安(an)全形(xing)式,以及社会监控的新維(wei)度。而在擴(kuo)展人工智能及其用途(tu)的过程中,那些未能获得主导权的人卻(que)可能会感到,他们正在被自己(ji)不了解, 而且并非(fei)由自身设计或选择的力量所监视、研究和采(cai)取行动。这种力量的运作是不透(tou)明的,在许多(duo)社会中,这是传统的人类行为者或机构不能容忍(ren)的。人工智能的设计者和部署者应該(gai)准備(bei)好(hao)解决这些问题,首(shou)先要做的是向非技术人员解释人工智能在做什么、它“知道”什么,又(you)会如何去做。人工智能的动態(tai)性和新興(xing)性至少令(ling)其在两个方面产生了模糊(hu)性。首先,人工智能可能按(an)照(zhao)我们的预期运行,但会产生我们无法预見(jian)的结果。这些结果可能会把(ba)人类引入其创造者也始(shi)料(liao)未及的境(jing)地(di),就像 1914 年(nian)的政治家没有认识到軍(jun)事动员的舊(jiu)邏(luo)輯(ji)加上新技术会把歐(ou)洲(zhou)拖(tuo)入战争一样。如果不加審(shen)慎(shen)的考慮(lv)就部署和运用人工智能,也可能会造成嚴(yan)重后果。

電(dian)影《阿(e)麗(li)塔(ta):战鬥(dou)天使》剧照。

这些后果可能是小范围的,比如自动駕(jia)駛(shi)汽(qi)車(che)做出的决定危(wei)及生命;也可能是极其重大的,比如严重军事冲突。其次,在某些应用领域中,人工智能可能是不可预測(ce)的,它的行动完全出人意料。以 AlphaZero 为例(li),它只是根据“贏(ying)棋”的指示(shi),就发展出一种人类在几千(qian)年的国际象(xiang)棋歷(li)史(shi)中从未设想过的棋风。雖(sui)然人类可能会小心规定人工智能的目标,但随着我们賦(fu)予(yu)其更大的自由度,其实现目标的路(lu)徑(jing)可能会让我们感到驚(jing)訝(ya),甚至感到恐(kong)慌(huang)。因此,对人工智能的目标和授权都需要謹(jin)慎地设计,尤(you)其是在其决策可能致命的领域。我们既(ji)不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督(du)、监视或直(zhi)接控制的情况下采取不可撤(che)銷(xiao)的行动。人工智能由人类创造,故(gu)也应由人类来监管。但在我们这个时代,人工智能面臨(lin)的挑(tiao)战之一是,具备了创造人工智能所需的技能和资源的人并非必然具有理解其更广泛内涵(han)的哲(zhe)学视角。许多人工智能的创造者主要关註(zhu)的是他们試(shi)图实现的应用和他们想要解决的问题:他们可能不会停(ting)下来考虑这个解决方案是否会产生一场历史性的革命,或者他们的技术将如何影响不同的人群(qun)。人工智能时代需要它自己的笛(di)卡(ka)兒(er)和康(kang)德,来解释我们创造了什么及其对人类有何意义。

我们有必要组织政府、大学和私(si)营行业创新者均(jun)参与其中的理性讨论和協(xie)商(shang),其目标应该是对实际行动建立限制就像今天管理个人和组织行动的那些限制一样。人工 智 能 具 有 的 屬(shu)性,部分与目前受监管的产品(pin)、服(fu)务、技术和实体相同,但在一些重要方面又与它们不同, 其缺乏自身完全界定的概念和法律(lv)框(kuang)架(jia)。例如,人工智能不斷(duan)演(yan)变、推陳(chen)出新的特性给监管带来了挑战:它在世界上的运作对象和方式可能因不同领域而異(yi),并随着时间的推移(yi)而演变,而且并不總(zong)是以可预测的方式呈(cheng)现。对人的治理是以道德准则为指导的。人工智能需要一种自己的道德准则,这种准则不仅反映(ying)了技术的本质,也反映了它所带来的挑战。

通常(chang),既有原则并不適(shi)用于此處(chu)。在信(xin)仰(yang)时代,当神明裁(cai)判(pan)中的被告(gao)面临战斗裁决时,法院可以判定罪(zui)行,但上帝(di)决定谁获得勝(sheng)利。在理性时代,人类根据理性的戒(jie)律来确定罪責(ze),并根据因果关系(xi)和犯(fan)罪意图等(deng)概念来判罪和施以懲(cheng)罰(fa)。但是人工智能并不依(yi)靠(kao)人类的理性运作,也没有人类的动机、意图或自我反省。因此,人工智能的引入将使适用于人类的现有正义原则更为复杂化。

当一个自主系统基于自己的感知和决策行动时,其创造者承(cheng)擔(dan)责任吗?还是说,人工智能的行为不可与其创造者相混(hun)同,至少在罪责方面不应連(lian)坐(zuo)?如果人工智能被用来监测犯罪行为的跡(ji)象,或者幫(bang)助判断某人是否有罪,那么人工智能必须能够“解释”它是如何得出结论的,以便人类官(guan)员对此加以采信吗?此外,在技术发展的哪个时點(dian)、何种背(bei)景(jing)之下,人工智能应该受到国际协商的限制?这是另一个重要的辯(bian)论主题。如果试探过早(zao),这項(xiang)技术的发展可能会受到阻(zu)礙(ai),或者可能誘(you)使其隱(yin)藏(zang)自身能力;而如果拖延(yan)太(tai)久(jiu),则可能会造成破壞(huai)性后果,尤其是在军事方面。对于一种虛(xu)无縹(miao)緲(miao)、晦(hui)澀(se)难懂(dong)且易(yi)于传播(bo)的技术,难以对其设计有效的核(he)查(zha)机制使得这一挑战更加复杂。官方的协商者必然是政府,但也需要为技术專(zhuan)家、伦理学家、创造和运营人工智能的公(gong)司(si)以及其他领域外人士(shi)搭(da)建发聲(sheng)平(ping)臺(tai)。

美剧《西(xi)部世界》剧照。

对不同社会来说,人工智能带来的两难困(kun)境均具有深遠(yuan)意义。如今,我们的社会和政治生活(huo)很大程度上是在人工智能赋能的網(wang)絡(luo)平台上发生的,民主国家尤其如此,它们依靠这些信息空(kong)间进行辩论和交流,形成公眾(zhong)輿(yu)论并赋予其合法性。谁,或者什么机构,应该界定技术的角色?谁又应该监管它?使用人工智能的个人应该扮(ban)演什么样的角色?生产人工智能的公司呢?部署使用它的社会政府呢?作为这些问题解决方案的一部分,我们应该设法使其可审核,即使其过程和结论既是可檢(jian)查的又是可糾(jiu)正的。反过来,纠正能否实施,将取决于能否将針(zhen)对人工智能感知和决策形式的原则加以細(xi)化。道德、意誌(zhi)甚至因果关系都不能很好地契(qi)合自主人工智能的世界。从交通运輸(shu)到金融(rong)再(zai)到醫(yi)藥(yao),社会的大多数層(ceng)面都会出现类似(si)的问题。

想想人工智能对社交媒(mei)体的影响吧(ba)。借(jie)助最(zui)近的创新,这些平台已迅(xun)速(su)成为我们公共生活的重要方面。正如我们在第四(si)章中所讨论的,推特和臉(lian)书用以突显、限制或完全禁(jin)止(zhi)内容或个人的功(gong)能全都仰仗(zhang)人工智能,这便是其力量的證(zheng)明。使用人工智能进行單(dan)邊(bian)的、通常不透明的内容和概念推广或删除(chu),这对各国尤其是民主国家来说都是一个挑战。随着我们的社会和政治生活越来越多地轉(zhuan)向由人工智能管理的领域,并且我们只能依靠这种管理来驾馭(yu)这些领域,我们是否有可能保(bao)留(liu)主导权?

使用人工智能处理大量信息的做法也带来了另一挑战:人工智能加大了对世界的扭(niu)曲(qu),以迎(ying)合人类的本能偏好。在这一领域,人工智能可以輕(qing)易地放(fang)大我们的认知偏差(cha),而我们却还与之共鳴(ming)。伴(ban)随着这些声音(yin),面对选择的多样性,又被赋予了选择和篩(shai)选的权力,人们接受的錯(cuo)誤(wu)信息将会泛濫(lan)。社交媒体公司不会通过新聞(wen)推送(song)来推动极端(duan)和暴(bao)力的政治极化,但显而易见的是,这些服务也没有导致开明話(hua)語(yu)的最大化。

人工智能、自由信息和獨(du)立思考

那么,我们与人工智能的关系应该是怎(zen)样的呢?在管理这些领域时,它应该被約(yue)束(shu)、被授权,还是被当作夥(huo)伴?某些信息的传播,尤其是故意制造的虚假(jia)信息,会造成損(sun)害(hai)、分裂(lie)和煽(shan)动,这是毋庸置疑的。因此一些限制是需要的。然而,现在对“有害信息”的譴(qian)责、打(da)击和压制显得过于寬(kuan)松(song),这也应该引起反思。

在一个自由社会里,有害信息和虚假信息的界定不应该被囿(you)于公司的職(zhi)权范围。但是,如果将此类职责委托给一个政府小组或机构,该小组或机构应该根据确定的公共标准并通过可核查的程序来运作,以避(bi)免(mian)被当权者利用。如果将其委托给人工智能算法,则该算法的目标函(han)数、学习、决策和行动必须清(qing)晰(xi)并接受外部审查,而且至少要有某种形式的人类訴(su)求。

当然,不同的社会会对此得出不同的答案。有些社会可能会强調(tiao)言(yan)论自由,强调程度可能因其对个人表(biao)达的相对理解差异而有所不同,并且可能因此限制人工智能在调和内容方面的作用。每个社会都会选择各自重视的觀(guan)念,这可能会导致其与跨(kua)国网络平台运营商之间的复杂关系。人工智能就像海(hai)綿(mian)一样善(shan)于吸(xi)收(shou),它向人类学习,甚至在我们设计和塑造它的时候(hou)也是如此。

美剧《西部世界》剧照。

因此,不仅每个社会的选择是不同的,每个社会与人工智能的关系、对人工智能的感知,及其人工智能模仿(fang)人类、向人类老(lao)師(shi)学习的模式也是各不相同的。但有一点是确定的,那就是人类对事实和真理的追求不应该使一个社会通过一个輪(lun)廓(kuo)不明、无法检验的过濾(lv)器来体验生活。对现实的自发体验尽管有其矛(mao)盾(dun)性和复杂性,却是人类境况的一个重要方面,即使这种体验导致了低(di)效或错误。

人工智能和国际秩序

在全球(qiu)范围内,有无数问题正亟(ji)待解答。如何对人工智能网络平台进行监管,而不会引发担心其安全性的国家之间的緊(jin)張(zhang)关系?这些网络平台是否会侵(qin)蝕(shi)传统的国家主权观念?由此产生的变化会给世界带来自苏聯(lian)解体以来从未有过的两极分化吗?小国会反对吗?试图调解这些后果的努(nu)力会成功吗?或者有成功的希(xi)望(wang)吗?

随着人工智能的能力不断增强,如何定位与人工智能合作时人类的角色将变得愈加重要和复杂。我们可以设想这样一个世界:在这个世界里,人类在日(ri)益(yi)重要的问题上越发尊(zun)重人工智能的意见。在一个进攻(gong)对手成功部署人工智能的世界里,防(fang)禦(yu)方的领导人能否决定不部署自己的人工智能并为此担责吗?即使他们也不确定这种部署将带来怎样的演变。而如果人工智能擁(yong)有推薦(jian)一种行动方案的优越能力,那么决策者是否有理由接受它,即使该行动方案需要做出一定程度的犧(xi)牲(sheng)?人类怎能知道这种牺牲是否对胜利必不可少呢?如果确实必不可少,那么决策者真的願(yuan)意否决它吗?換(huan)句(ju)话说,我们可能别无选择,而只能选择扶(fu)植(zhi)人工智能。但我们也有责任以一种与人类未来相容的方式来对它加以塑造。不完美是人类经验中的常态之一,尤其是在领导力方面。

通常,决策者会因偏狹(xia)的担憂(you)而杯(bei)弓(gong)蛇(she)影。有时,他们的行动基于错误的假设;有时,他们的行动純(chun)粹(cui)是出于感情用事;还有一些时候,意识形态扭曲了他们的视野(ye)。无论用何种策略来构建人类与人工智能的伙伴关系,它们都必须适应人类。如果人工智能在某些领域显示出超(chao)人的能力,则其使用必须能够被不完美的人类環(huan)境所兼(jian)容并包(bao)。

在安全领域,人工智能赋能系统响应速度非常快(kuai),使得对手可能会在系统运行之前嘗(chang)试攻击。结果是可能造就一种内在不穩(wen)定的局势,堪(kan)比核武(wu)器所造成的局势。然而,核武器被置于国际安全和军备控制概念的框架中,这些概念是由各国政府、科学家、战略家和伦理学家通过不断的提煉(lian)、辩论和谈判,在过去几十(shi)年里发展起来的。人工智能和网络武器没有类似的框架。

事实上,政府可能并不愿意承认它们的存在。各国——可能还有科技公司——需要就如何与武器化的人工智能共存达成一致。人工智能通过政府防务职能的扩散,将改变国际平衡(heng)以及在我们这个时代维持(chi)这种平衡所依賴(lai)的计算。核武器代價(jia)高(gao)昂(ang),而且由于其规模和结构而难以被隐藏。与之相反,人工智能却可以在随处可见的计算机上运行。由于训练机器学习模型(xing)需要专业知识和计算资源,因此创造一个人工智能需要大公司或国家級(ji)的资源;而由于人工智能的应用是在相对較(jiao)小的计算机上进行的,因此其必将被广泛使用,包括(kuo)以我们意想不到的方式。任何拥有筆(bi)記(ji)本电腦(nao)、连接到互联网并致力于窺(kui)探人工智能黑(hei)暗(an)面的人,最終(zhong)都能获得人工智能赋能的武器吗?政府是否会允许与其关系若(ruo)即若离或毫(hao)无关系的行为者使用人工智能来騷(sao)擾(rao)他们的对手?恐怖(bu)分子(zi)会策劃(hua)人工智能襲(xi)击吗?他们是否能够将这些活动嫁(jia)禍(huo)给国家或其他行为者?

过去,外交在一个有组织、可预测的舞(wu)台上进行;如今,其信息获取和行动范围将获得极大的扩展。以往因地理和语言差异而形成的清晰界線(xian)将逐漸(jian)消失。人工智能翻(fan)譯(yi)将促(cu)进对话,而且不用像以往的译者那样不仅要有语言造詣(yi),还要精(jing)通文化。人工智能赋能的网络平台将促进跨境交流,而黑客(ke)攻击和虚假信息将繼(ji)續(xu)扭曲人们的认知和评估。随着形势愈加复杂,制定具有可预测结果的可执行协议将变得更加困难。

将人工智能功能与网络武器相结合的可能性加深了这一困境。人类通过明确區(qu)分常规武器(被认为与传统战略相调和)和核武器(被认为是例外)而回避了核悖(bei)论。核武器的破坏力量一旦(dan)释放就是无差别的,不分对象;而常规武器可以辨(bian)别打击目标。但是,既能辨别目标又能进行大规模破坏的网络武器消除了这一区分。

如果再有人工智能推波(bo)助瀾(lan),这些武器将如虎(hu)添(tian)翼(yi),变得更加不可预测,潛(qian)在的破坏性也更大。同时,当这些武器在网络中伺(si)机遊(you)弋(yi)时,是无法确定歸(gui)属的。它们无法被察(cha)覺(jiao),因为它们不像核武器那么笨(ben)重;它们还可以通过 U 盤(pan)攜(xie)带,而这有利于扩散。在某些形式下,这些武器一旦被运用就难以控制,如果考虑到人工智能的动态和新兴特性就更加如此。

这种形势挑战了以规则为基礎(chu)的世界秩序的前提。此外,它还让发展人工智能军备控制的相关概念成了当务之急(ji)。在人工智能时代,威(wei)懾(she)将不再依照历史上的准则, 它也做不到这一点。在核时代之初(chu),依据哈(ha)佛(fo)大学、麻省理工学院和加州(zhou)理工学院的领军教(jiao)授、学者(有政府工作经验)在讨论中形成的真知灼(zhuo)见,人们搭建了一个核军备控制的概念框架,继而又促成了一个制度(以及在美国和其他国家实施该制度的机构)的建立。

尽管学术界的思想很重要,但它与五(wu)角大樓(lou)对常规战争的考量是分开实施的—— 它是一种新的补充,而非对原有的修(xiu)改。但人工智能的潜在军事用途比核武器更广泛,而且至少目前其进攻和防御还谈不上涇(jing)渭(wei)分明。在一个如此复杂、内在又如此叵(po)测的世界里,人工智能成了另一种误解和错误的可能来源,拥有高科技能力的大国遲(chi)早将不得不就此进行一场持续对话。

这种对话应聚(ju)焦(jiao)于一个根本问题:避免災(zai)难,并以此求得生存。人工智能和其他新兴技术(比如量子计算)似乎(hu)正在让超越人类感知范围的现实变得更加觸(chu)手可及。然而,最终我们可能会发现,即使是这些技术也有其局限性。我们的问题是,我们尚未领会它们的哲学蘊(yun)含(han)。我们正在被它们不由自主地推动向前,而非有意识的。

上一次人类意识发生重大变化是在啟(qi)蒙(meng)运动时期,这一转变的发生是因为新技术产生了新的哲学见解,而这些见解又通过技术(以印(yin)刷(shua)机的形式)传播开来。在我们这个时代,新技术已经发展起来,但相应的指导性的哲学理念却暫(zan)付(fu)闕(que)如。人工智能是一项具有深远潜在利益的宏(hong)大事业。人类正在努力开发人工智能,但我们是用它来让我们的生活变得更好还是更糟(zao)?它允諾(nuo)带来更强力的药物、更高效公平的医療(liao)保健(jian)、更可持续的环境实踐(jian),以及其他种种进步(bu)图景。然而与此同时,它也可以使信息失真,或者至少使信息的消費(fei)和真相识别的过程变得更加错綜(zong)复杂,并由此令一部分人的独立推理和判断能力日渐萎(wei)落(luo)。

最后,一个“元(yuan)”问题浮(fu)现出来:在对世界有着不同解释和理解的人工智能的“辅助”下,人类能否滿(man)足对哲学的需求?人类并不完全了解机器,但我们最终将与它们和平共处,并以此改变世界?伊(yi)曼(man)努尔 ·康德在他的《纯粹理性批判》一书的序言中以这样一个观点开篇(pian):

人类理性具有此种特殊(shu)运命,即在其所有知识之一門(men)类中,为种种问题所困,此等问题以其为理性自身之本质所加之于其自身者,故不能置之不顧(gu),但又因其超越理性所有之一切能力, 故又不能解答之也。

在此后的几个世紀(ji)里,人类对这些问题进行了深入的探索,其中一些问题涉(she)及心灵、理性乃(nai)至现实的本质。人类已取得了重大突破,但也遇(yu)到了康德提出的许多限制:一个其无法回答的问题领域,一个其无法完全了解的事实领域。人工智能的出现,带来了人类仅憑(ping)理性无法实现的学习和处理信息的能力,其可能会让我们在那些已被证明超出我们回答能力的问题上取得进展。但是,成功将产生新的问题,其中一些问题我们已经试图在本书中阐明。人类智能和人工智能正值(zhi)风雲(yun)际会,两者将彼(bi)此融汇于国家、大洲,甚至全球范围内的各种追求之中。理解这一转变,并为之发展一种指导性道德准则,需要社会各个階(jie)层,包括科学家和战略家、政治家和哲学家、神职人员和首席(xi)执行官们,群策群力、各抒(shu)己见并做出共同的承诺。不仅各国内部应有此承诺,国与国之间也同样如此。我们与人工智能究竟(jing)能建立何种伙伴关系,由此又会产生什么样的现实呢?现在,是时候对此加以界定了。

作者:/[美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼尔·胡滕洛赫尔

摘编/劉(liu)亞(ya)光(guang)

编辑/刘亚光

校(xiao)对/趙(zhao)琳(lin)返(fan)回搜(sou)狐(hu),查看更多

责任编辑:

发布于:云南大理洱源县