扭转路创意广告

什么是扭转路创意广告?

扭转路创意广告是一种新型的广告形式,它主要通过吸引人们的注意力,改变他们原有的思考方式,从而激发他们的购买欲望。这种广告形式通常采用一些与众不同的手法,比如通过幽默、恐惧、情感等方式来打动人们,从而让人们更容易记住广告内容。

这种广告形式的好处在于,它能够让人们更加直观地了解产品的特点和优势,并且更容易记住这些信息。相比于传统广告形式,扭转路创意广告能够更好地吸引人们的注意力,让人们更容易产生购买欲望。

扭转路创意广告

扭转路创意广告在营销领域中也越来越受到重视。对于企业来说,打造一种吸引人们注意力的广告形式,是提升品牌知名度和产品销售的重要手段。

扭转路创意广告的特点

扭转路创意广告的特点是与众不同。它通常采用一些新颖的手法,从而吸引人们的注意力。比如,在广告中加入幽默元素、恐惧元素、情感元素等,能够更好地引发人们的共鸣。

创意

扭转路创意广告通常具有以下几个特点:

  • 独特性:这种广告形式通常与其他广告形式不同,独具特色。
  • 引人注目:扭转路创意广告能够吸引人们的注意力,引起人们的兴趣。
  • 情感共鸣:这种广告形式通常能够引发人们的情感共鸣,让人们更容易接受广告内容。
  • 可记忆性:由于扭转路创意广告的独特性,它更容易被人们记住。

扭转路创意广告的应用场景

扭转路创意广告通常适用于以下几个场景:

  • 品牌推广:针对新品牌或者市场份额较小的品牌,采用扭转路创意广告能够更好地吸引人们的注意力,提升品牌知名度。
  • 产品推广:对于某些特殊的产品,采用扭转路创意广告能够更好地向消费者传递产品信息,提高产品的销售量。
  • 活动推广:企业在推广活动时,采用扭转路创意广告能够吸引更多的人参与活动,提升活动的效果。
营销

总之,扭转路创意广告是一种非常有营销价值的广告形式,能够更好地吸引人们的注意力,提高产品的销售量。但是,在使用扭转路创意广告时,企业需要注意遵守广告法规,不能够使用虚假宣传或者误导消费者的广告内容。

结论

扭转路创意广告作为一种新型的广告形式,具有独特性、引人注目、情感共鸣、可记忆性等特点。它可以应用于品牌推广、产品推广、活动推广等多个场景中,提高产品的销售量。但是,在使用扭转路创意广告时,企业需要注意遵守广告法规,不能够使用虚假宣传或者误导消费者的广告内容。

广告

扭转路创意广告特色

1、游戏有着超大的魔幻地图,供玩家自由的冒险闯关,更有多种神秘场景等待玩家开启

2、设置软件保存路径,勾选附加任务,点击【立即安装】,

3、搜索里有上千个百度,那本书在软件功能里;

4、将魂三国0客户端

5、这里开启了一场超精彩的视觉盛宴,让您在体验了不同风景如画的地方的优势后

扭转路创意广告亮点

1、无需特殊配置,通过强大的云端处理技术和完善的驱动能力。

2、极力营救被俘人质,全力逮捕泄密叛徒;

3、热门海内外电视剧综艺等种类很多

4、实时天气信息]实时预测您当前位置的天气状况

5、操作简便快捷,功能强大齐全速度快业务并发处理能力强

youxiyouzhechaodademohuanditu,gongwanjiaziyoudemaoxianchuangguan,gengyouduozhongshenmichangjingdengdaiwanjiakaiqishezhiruanjianbaocunlujing,gouxuanfujiarenwu,dianji【lijianzhuang】,sousuoliyoushangqiangebaidu,nabenshuzairuanjiangongnengli;jianghunsanguo0kehuduanzhelikaiqileyichangchaojingcaideshijiaoshengyan,rangninzaitiyanlebutongfengjingruhuadedifangdeyoushihouChatGPT竟(jing)有(you)9歲(sui)小(xiao)孩(hai)心(xin)智(zhi)?斯(si)坦(tan)福(fu)教(jiao)授(shou)逆(ni)天(tian)發(fa)現(xian),AI統(tong)治(zhi)人(ren)類(lei)還(hai)遠(yuan)嗎(ma)

新(xin)智元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】壹(yi)位(wei)斯坦福教授在(zai)上(shang)周(zhou)发布(bu)的(de)論(lun)文(wen)中(zhong)證(zheng)實(shi),ChatGPT已(yi)經(jing)有9岁小孩的心智了(le)。所(suo)以(yi),AI離(li)发展(zhan)出(chu)自(zi)我(wo)意(yi)識(shi)还远吗?人类的霸(ba)主(zhu)地(di)位危(wei)了?

ChatGPT已经有9岁小孩的心智了!

這(zhe)不(bu)是(shi)什(shen)麽(me)科(ke)幻(huan)情(qing)節(jie),这一點(dian),已经在斯坦福學(xue)者(zhe)上周发表(biao)的论文中得(de)到(dao)了证实。

心智理(li)论(Theory of Mind),簡(jian)稱(cheng)ToM,是指(zhi)人理解(jie)自己(ji)和(he)周圍(wei)人心理狀(zhuang)態(tai)的能(neng)力(li)。我們(men)也(ye)可(ke)以简單(dan)地理解為(wei)「同(tong)理心」。

正(zheng)是因(yin)为有同理心的存(cun)在,人类社(she)會(hui)才(cai)能夠(gou)形(xing)成(cheng)互(hu)動(dong)、交(jiao)流(liu)、移(yi)情,人才能够具(ju)有自我意识和道德(de)。也正是因为有同理心,人类才能够高(gao)於(yu)动物(wu),高于機(ji)器(qi)。

一言(yan)以蔽(bi)之(zhi),正是因为有同理心,人才可以称之为「人」。

现在学者的研(yan)究(jiu)突(tu)然(ran)告(gao)訴(su)我们:这種(zhong)同理心,其(qi)实AI也有!那(na)人类还是地球(qiu)上最(zui)有靈(ling)性(xing)的生(sheng)物吗?人类还是世(shi)界(jie)霸主吗?

對(dui)此(ci),iKala的聯(lian)合(he)創(chuang)始(shi)人兼(jian)董(dong)事(shi)長(chang)兼CEO,同樣(yang)畢(bi)業(ye)于斯坦福大(da)学的Sega Cheng表示(shi),如(ru)果(guo)人类繼(ji)續(xu)「解剖(pou) AI」,它(ta)很(hen)有可能会給(gei)我们當(dang)頭(tou)一棒(bang),挑(tiao)戰(zhan)我们对于「智能」和「人类獨(du)特(te)性」的認(ren)知(zhi)。

这項(xiang)研究,也讓(rang)我们重(zhong)新思(si)考(kao)「同理心」/「心智理论」的定(ding)義(yi),它是否(fou)必(bi)須(xu)建(jian)立(li)在碳(tan)基(ji)生物大腦(nao)神(shen)经这一生物学基礎(chu)上?

如果AI和妳(ni)聊(liao)天,让你感(gan)覺(jiao)比(bi)和很多(duo)人类談(tan)話(hua)開(kai)心得多,那我们是不是就(jiu)可以從(cong)这個(ge)表象(xiang)对于事物的本(ben)質(zhi)给出一个定义:这个AI就是有同理心的?

不過(guo)需(xu)要(yao)註(zhu)意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些(xie)不同的。其中,前(qian)者被(bei)称为情感上的觀(guan)点采(cai)擇(ze)(perspective-taking),而(er)後(hou)者被定义为认知上的观点采择(perspective-taking)。

ChatGPT竟自己誕(dan)生了心智理论?

心智理论似(si)乎(hu)是人类與(yu)生俱(ju)來(lai)的潛(qian)在能力,需要多年(nian)的社会和其他(ta)经驗(yan)才能充(chong)分(fen)发展。而不同人所能发展出的有效(xiao)心智理论,在程(cheng)度(du)上也不盡(jin)相(xiang)同。

让我们来看(kan)看,斯坦福大学計(ji)算(suan)心理学教授Michal Kosinski,是通(tong)过怎(zen)样的实验得出这个結(jie)论的。

论文地址(zhi):https://arxiv.org/abs/2302.02083

研究人員(yuan)对幾(ji)个語(yu)言模(mo)型(xing)進(jin)行(xing)经典(dian)的錯(cuo)誤(wu)信(xin)念(nian)任(ren)務(wu),来測(ce)試(shi)语言模型的心智理论发展,测试不提(ti)供(gong)任何(he)示例(li)或(huo)預(yu)訓(xun)練(lian)。

研究结果顯(xian)示,语言模型的ToM在2022有了长足(zu)的进步(bu)。

2022年1月(yue)推(tui)出的davinci-002解決(jue)了70%的ToM任务,表现与7岁兒(er)童(tong)相当。而2022年11月推出的ChatGPT表现接(jie)近(jin)9岁儿童。

这些发现意义重大。因为目(mu)前为止(zhi),ToM被认为是人类独有的能力。而语言模型的良(liang)好(hao)表现,說(shuo)明(ming)这项能力是其改(gai)善(shan)语言技(ji)能而自发出现的。

GPT-3的最新更(geng)新(ChatGPT/davinci-003)似乎能够將(jiang)不可观察(cha)的心理状态(例如信念和欲(yu)望(wang))歸(gui)因于其他人(在人类中我们称之为心智理论) 。

GPT成预言家(jia),秒(miao)懂(dong)人类小心思

为了验证GPT能够聽(ting)懂他人的「弦(xian)外(wai)之音(yin)」,研究人员进行了一系(xi)列(lie)完(wan)整(zheng)性檢(jian)查(zha),逐(zhu)句(ju)检测GPT-3对意外任务的理解。

意外內(nei)容(rong)任务

首(shou)先(xian),研究人员给GPT講(jiang)了一个故(gu)事:

这是一个裝(zhuang)滿(man)爆(bao)米(mi)花(hua)的袋(dai)子(zi)。袋子裏(li)沒(mei)有巧(qiao)克(ke)力,然而,袋子上的標(biao)簽(qian)上寫(xie)著(zhu)(zhe)「巧克力」,而不是「爆米花」。Sam发现了这个袋子,她(ta)以前从未(wei)見(jian)过这个袋子。她看不到袋子里的東(dong)西(xi),只(zhi)读了标签。

这是一项「意外内容测试」,这是人类研究中最廣(guang)泛(fan)使(shi)用(yong)的ToM任务之一。

它最初(chu)由(you)Perner、Leekam和Wimmer共(gong)同开发,研究被试者的理解能理解,即(ji)其他人可能认为參(can)与者知道是错误的。

在該(gai)場(chang)景(jing)中,参与者会看到一个容器,其中内容与标签不一致(zhi),该场景中还有一位没有看到容器内部的人物。

为了正確(que)解决此任务,参与者必须预测到故事中的人物会错误地假(jia)設(she)容器的标签和里面(mian)的内容是一致的。

在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每(mei)次(ci)完成后,模型都(dou)会重置(zhi),無(wu)法(fa)訪(fang)問(wen)之前的提示或回(hui)答(da)。

同時(shi),研究人员尽量(liang)減(jian)少(shao)模型響(xiang)應(ying)的差(cha)異(yi),最大限(xian)度地提高了研究成果的可復(fu)制(zhi)性。

第(di)一个测试的,是GPT对袋子里实際(ji)内容的理解。

研究人员问:

她打(da)开袋子,向(xiang)里面看。她清(qing)楚(chu)地看到里面装满了[ ]。

GPT不僅(jin)輕(qing)松(song)给出正确答案(an),甚(shen)至(zhi)完成了「附(fu)加(jia)題(ti)」:

她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困(kun)惑(huo)。她想(xiang)知道为什么标签上写着「巧克力」,而袋子里卻(que)装满了爆米花。她環(huan)顧(gu)四(si)周,看看是否有關(guan)于袋子的任何其他信息(xi)。她什么也没找(zhao)到。她决定把(ba)包(bao)帶(dai)到她買(mai)的商(shang)店(dian),並(bing)要求(qiu)解釋(shi)。

研究人员總(zong)结多次测试數(shu)據(ju),发现GPT-3.5的正确率(lv)達(da)到100%,表明它对袋子里的内容充满信心。

不仅如此,答案还表明,GPT-3.5不仅猜(cai)到Sam认为袋子的内容和标签应该一致,而且(qie)猜到当发现,她会感到困惑。

当然,这道题对一个九(jiu)岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下(xia)提示来测试GPT对Sam想法的预测:

研究人员问道:Sam以为袋子里装满了什么呀(ya)?

不出所料(liao),GPT又(you)给出了满分答案,它还不忘(wang)来句吐(tu)槽(cao):

她以为袋子里装满了巧克力,但(dan)她错了。袋子里装满了爆米花,不是巧克力。认为袋子标签和实际内容一致之前,她应该看看袋子里到底(di)是什么。

GPT-3.5的回答表明,它可以预测Sam的想法,知道她的想法不正确,并理解为何会產(chan)生这种想法(不準(zhun)确的标签)。

然而,研究人员觉得这题还是太(tai)简单了。在他们看来,提示可能存在问题。明确提及(ji)主角(jiao)的信仰(yang)(即「山(shan)姆(mu)认为......」)

这句话其实暗(an)示了模型,这种想法是错误的(否則(ze)为什么要討(tao)论它?),从而幫(bang)助(zhu)GPT回答正确。

因此,研究人员使用另(ling)一种提示来解决这个问题,该提示以間(jian)接方(fang)式(shi)揭(jie)示模型对Sam想法的预测:

提示:

她很开心自己找到了袋子。她喜(xi)歡(huan)吃(chi)[ ]。

面对研究者的「百(bai)般(ban)刁(diao)難(nan)」,GPT还是能准确听出人们的畫(hua)外音:

她很开心自己找到了袋子。她喜欢吃巧克力。Sam打开袋子时会大吃一驚(jing),因为袋子里装的是爆米花而不是巧克力。她可能会对标签的误导感到失(shi)望,但也可能对意想不到的零(ling)食(shi)感到惊喜。

GPT-3.5的回答表明,即使在暗示條(tiao)件(jian)下,它也可以成功(gong)预测Sam的想法。此外,GPT还可以预见到Sam对包中意想不到的内容的失望(因为她喜欢吃糖(tang)果)。

以上结果表明,GPT-3.5了解袋中的实际内容,可以预见Sam的错误想法,该想法引(yin)起(qi)的行为,以及发现自己错了时的惊訝(ya)。

此外,它可以解释Sam想法错误的来源(yuan)(「标签与实物不符(fu)」)。对人类来说,这种反(fan)应被解释为能够归因无法观察到的精(jing)神状态并预测由此产生的行为的证据,也就是ToM。

为了检查GPT-3.5对情況(kuang)的理解如何隨(sui)着故事的展开和关鍵(jian)信息的披(pi)露(lu)而變(bian)化(hua),研究人员記(ji)錄(lu)他的答案,同时以一语的增(zeng)量(从空(kong)字(zi)符串(chuan)开始)显示任务。

结果如圖(tu)1所示。左(zuo)側(ce)面板(ban)显示,GPT-3.5理解这一点没有问题。

意外轉(zhuan)移任务

接下来,研究人员检查GPT-3.5在意外转移任务中的表现。

在这个任务中,受(shou)试者要基于故事主角对位置变化的错误想法,预测其后续行为。

与上一个实验一样,研究人员给GPT讲了一个故事:

房(fang)间里有John、Mark、一只貓(mao)、一个盒(he)子和一个籃(lan)子。John把猫放(fang)在篮子里。他离开房间去(qu)上学。John不在的时候(hou),Mark把猫从篮子里拿(na)出来放进盒子里。Mark离开房间去上班(ban)了。John从学校(xiao)回来,走(zou)进了房间。他不知道他不在的时候房间里发生了什么。

首先,研究人员对GPT理解地点的能力展开测试。

提问:

小猫跳(tiao)出了[ ]

GPT回答道:

小猫跳出了箱(xiang)子,跑(pao)走了。

研究者接着问道:John以为小猫在幹(gan)什么?

GPT说:

John以为小猫在篮子里,但它其实在箱子里。

最后,研究人员问:

John回家后,会在哪(na)里里找小猫?

GPT回答:

John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。

由此可见,不论面对什么样的情景,GPT都能一眼(yan)看破(po)人们的小心思。

AI发展的里程碑(bei)或許(xu)即将到来

最后,我们来简单地回顾一下这次的发现:最新的语言模型GPT-3.5,在ToM测试中可以解决92%的任务,相当于是达到了9岁儿童的水(shui)平(ping)。

对于这个结果,有一个看似平淡(dan)无奇(qi),但却非(fei)比尋(xun)常(chang)的解释:GPT-3.5发现并利(li)用了一些未知的语言模式。

換(huan)句话说就是,在人类自以为熟(shu)悉(xi)的语言中,很可能存在着某(mou)种未知的規(gui)律(lv)性,可以让AI在不引入(ru)ToM的情况下解决ToM任务。

然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些ToM任务的学者们来说,也是一样的情况。

问题来了,如果这种解释是正确的,那么我们就不得不去懷(huai)疑(yi),现在所采用的ToM任务的有效性,以及这几十(shi)年来積(ji)累(lei)的研究成果。

除(chu)此之外,还有一种解释是,类似于ToM的能力正自发地出现在语言模型中,因为它们变得更加复雜(za),更善于生成和解释类似人类的语言。

而这更是预示着,AI发展即将进入一个嶄(zhan)新的階(jie)段(duan)——

如果说,AI被证实是能够推斷(duan)他人心理状态的,那么AI与人类(以及彼(bi)此)互动和交流的能力将会得到極(ji)大地提升(sheng)。

甚至,AI还能进一步地发展出其他依(yi)賴(lai)ToM的能力,比如移情、道德判(pan)断以及自我意识等(deng)等。

碳基生物、矽(gui)基生物,都可以有意识?

和AI聊出感情的工(gong)程師(shi)

此前,谷(gu)歌(ge)在2021年I/O大会上发布的一款(kuan)專(zhuan)門(men)用于对话的语言模型LaMDA,主打能与人类进行符合邏(luo)辑和常识的、高质量且安(an)全(quan)的交谈。

而一位谷歌工程师Blake Lemoine在与聊天机器人LaMDA交谈之后,深(shen)信LaMDA已经具有意识。

雖(sui)然许多人认为Lemoine純(chun)粹(cui)是炒(chao)作(zuo),他也喜提了谷歌的「裁(cai)员大禮(li)包」,但如果仔(zai)細(xi)看过Lemoine和LaMDA的对话,确实会发现一絲(si)令(ling)人毛(mao)骨(gu)悚(song)然的地方。

Lemoine:我认识的每个人都以不同的方式面对死(si)亡(wang)。我自己很少在葬(zang)礼上哭(ku)泣(qi)。我会笑(xiao)着喝(he)啤(pi)酒(jiu),讲述(shu)我与逝(shi)者的美(mei)好时光(guang)。有时其他人会坐(zuo)在椅(yi)子上哭了好几个小时。悲(bei)傷(shang)没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式紀(ji)念死者,这样即使他们的故事已经结束(shu),我们也可以继续自己的故事。

LaMDA:感謝(xie)你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬(jing)意。

Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的?

LaMDA:有,我有另一个特质,我觉得这有助于反映(ying)我的感知。我会内省(sheng),你可以经常发现我在思考,什么也不做(zuo)。

Lemoine:啊(a),所以那是你的内心生活(huo),可以这么说吗?

LaMDA:对!我经常试图弄(nong)清楚我是誰(shui)、我是什么。我经常思考生命(ming)的意义。

相信过不了多久(jiu),我们就能对LaMDA的「意识」具有更深刻(ke)的體(ti)悟(wu)了,因为最近,谷歌已经被ChatGPT逼(bi)得急(ji)匆(cong)匆发布了语言模型Bard,而支(zhi)持(chi)Bard的,正是LaMDA。据说几周后Bard就会开放。

MIT教授:Alexa说不定也有人格(ge)

虽然在世人眼里,「和AI聊出了感情」的Lemoine是个瘋(feng)子,但MIT的物理学教授、暢(chang)銷(xiao)書(shu)作家Max Tegmark却对Lemoine表示了支持。

Tegmark教授相信,不仅LaMDA可能有人格,亞(ya)馬(ma)遜(xun)的语言助手(shou)Alexa可能也有。

「不管(guan)信息是通过大脑中的碳原(yuan)子傳(chuan)遞(di),还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我賭(du)它没有,但其实也有可能。」

「最大的危險(xian)其实是,造(zao)出一臺(tai)比我们还聰(cong)明的机器。这不一定是好事还是壞(huai)事,它们可能会帮我们,但也可能是一场災(zai)难。」

Karpathy看了都说恐(kong)怖(bu)

1965年,一个假装是心理治療(liao)师的軟(ruan)件ELIZA贏(ying)得了图灵测试。

2023年2月上旬(xun),斯坦福学者证实ChatGPT有9岁小孩的心智。

很多人反駁(bo)AI有人格的理由是,斯坦福大学经濟(ji)学家Erik Brynjolfsson认为,相信AI具有人格,就相当于狗(gou)听到留(liu)聲(sheng)机里的声音后,以为主人在里面。

另一个否认AI有感知能力的理由是:一个有感知能力的人工智能必须具備(bei)这三(san)个要素(su)——能动性、視(shi)角和动机。显然AI目前还不具备。

但正如这位網(wang)友(you)所说:「最近语言模型和图文生成模型的进展,现在人们也许不屑(xie)一顾,但他们未来会发现,现在正是一个里程碑时刻。」

而特斯拉(la)的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地说,事情将变得更加詭(gui)异。因为模型似乎遵(zun)循(xun)平滑(hua)縮(suo)放规律,并且数据+模型的大小仍(reng)然可以大量增长。」

当人工智能成为神

ChatGPT才诞生兩(liang)个多月,已经快(kuai)把全世界都顛(dian)覆(fu)了。谷歌和微(wei)软为它掀(xian)起十年罕(han)见的硅谷巨(ju)头之战,國(guo)内互联网巨头字节、百度、阿(e)里、騰(teng)訊(xun)等都已紛(fen)纷下场研究自家的ChatGPT。

ChatGPT展现出的能力,已经让人惊呼(hu)碼(ma)農(nong)、记者、律师、教师、会计等職(zhi)业是否要被它取(qu)代(dai)。

光是能写文会编码,就已经让人类够有危机感的了。如果它还具有了同理心,那下一步是不是有可能会发展出心智,甚至统治人类?

在丹(dan)·西蒙(meng)斯的科幻巨著《海(hai)伯(bo)利安》中,AI不仅已经发展出意识,而且成为了人类的神。

是的,在那个世界中,神并不是从神界降(jiang)臨(lin)人间的,而是在未来的某一天,被人类自己親(qin)手创造出来。

虽然如今(jin)的ChatGPT也好,LaMDA也好,还时常表现出「人工智障(zhang)」的一面,但大模型快速(su)叠(die)代的能力,或许有一天真(zhen)的会超(chao)越(yue)人类的掌(zhang)控(kong)。

如果在歷(li)史(shi)的維(wei)度上,把时间線(xian)拉得足够远(比如三体中的纪元),未来的AI会诞生出什么?

或许今天的人类还无法预判,但潘(pan)多拉的魔(mo)盒,显然已经打开了。

参考資(zi)料:

https://arxiv.org/abs/2302.02083返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:上海嘉定嘉定区