广告的六种创意模式

什么是广告的六种创意模式?

广告是企业在推广产品和服务时最常用的方式之一。为了吸引更多的顾客,广告必须要具有创意,通过六种不同的创意模式可以实现这一目标。这些创意模式包括:比较式、情感式、知识性、幽默式、直接式和心理暗示式。

比较式广告是一种将产品或服务与其竞争对手进行比较的广告。这种广告通常会通过一些数据或事实来强调该产品或服务的优势。例如,一家汽车公司可能会在其广告中强调其车辆的燃油效率比竞争对手更高。

比较式广告

情感式广告是通过引起观众情感共鸣来吸引他们的注意力和兴趣的广告。这种广告通常会使用一些情感化的语言或图像,例如快乐的家庭或美丽的景色,来吸引人们的眼球。例如,一家旅游公司的广告可能会展示一张美丽的海滩或者一幅悠闲的人们在享受假期的画面。

情感式广告

知识性广告是一种向观众传达相关知识的广告。这种广告通常会强调该产品或服务的功能和特性。例如,一家科技公司可能会在其广告中介绍其最新的智能手机的新功能。

知识性广告

剩下三种广告创意模式是什么?

幽默式广告是向观众传递一种幽默和轻松的感觉的广告。这种广告通常会使用一些搞笑的场景或者恶搞来吸引人们的注意力。例如,一家啤酒公司可能会在其广告中展示一些爆笑场景来吸引年轻人。

幽默式广告

直接式广告是针对那些容易被广告影响的人的广告。这种广告通常会通过打擦边球的方式来吸引人们的注意力。例如,一家减肥产品公司可能会在其广告中强调使用该产品可以快速瘦身。

直接式广告

心理暗示式广告是一种向观众传达某种信息的广告。这种广告通常会使用一些隐晦的语言或者暗示来吸引人们的注意力。例如,一家珠宝公司可能会在其广告中使用一些奢华的场景和语言,来让人们觉得购买该产品可以让他们变得更加优雅和高尚。

心理暗示式广告

结论

不同的创意模式可以在吸引人们的注意力和兴趣方面发挥不同的作用。有些人更喜欢幽默和轻松的广告,而有些人则更喜欢知识性或者情感化的广告。因此,在制作广告时,企业需要考虑到不同的受众群体,并选择适当的创意模式来吸引他们的注意力和兴趣。

广告的六种创意模式特色

1、每一期的课程都是比较有意义的,进入到这个学习平台中可以更自由的去上课。

2、简单流畅的划动操作,爽快刺激的消除体验!

3、APP为用户提供了十分精细的管理服务功能,能够自动为用户提供服务;

4、自动记录学生的学习过程,方便孩子复习。

5、玩家需要完成各种不同的任务,只有完成各种采摘的任务,才能够轻松的赚钱。

广告的六种创意模式亮点

1、让人上瘾的爽快手感。

2、【我是掼蛋王】

3、K级画质D连招动作手游,殿堂级享受邀你畅玩,连招升级强势登场,以UnityD核心引擎展现精美画质。

4、除了生活服务,政府服务还可以为个人和法人办事提供便利

5、团队竞技:固定时间内率先消灭固定数量的敌人获胜。

meiyiqidekechengdoushibijiaoyouyiyide,jinrudaozhegexuexipingtaizhongkeyigengziyoudequshangke。jiandanliuchangdehuadongcaozuo,shuangkuaicijidexiaochutiyan!APPweiyonghutigongleshifenjingxideguanlifuwugongneng,nenggouzidongweiyonghutigongfuwu;zidongjiluxueshengdexuexiguocheng,fangbianhaizifuxi。wanjiaxuyaowanchenggezhongbutongderenwu,zhiyouwanchenggezhongcaizhaiderenwu,cainenggouqingsongdezhuanqian。壹(yi)個(ge)10年(nian)符(fu)號(hao)主(zhu)義(yi)學(xue)者(zhe)的(de)深(shen)度(du)討(tao)論(lun):如(ru)何(he)理(li)性(xing)看(kan)待(dai)ChatGPT?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS 好(hao)困(kun)

【新智元導(dao)讀(du)】從(cong)ChatGPT來(lai)看,符号主义和(he)連(lian)接(jie)主义該(gai)如何發(fa)展(zhan)?

近(jin)十(shi)年,连接主义者在(zai)各(ge)種(zhong)深度学習(xi)模(mo)型(xing)加(jia)持(chi)下(xia),借(jie)著(zhe)大(da)數(shu)據(ju)、高(gao)算(suan)力(li)的東(dong)風(feng)在人(ren)工(gong)智能(neng)賽(sai)道上(shang)領(ling)跑(pao)符号主义。

但(dan)每(mei)次(ci)有(you)新的深度学习大模型发布(bu),如近期(qi)火(huo)爆(bao)的ChatGPT,在對(dui)其(qi)強(qiang)大的性能驚(jing)嘆(tan)贊(zan)揚(yang)之(zhi)後(hou),就(jiu)是(shi)对研(yan)究(jiu)方(fang)法(fa)本(ben)身(shen)的激(ji)烈(lie)讨论,模型本身的漏(lou)洞(dong)與(yu)缺(que)陷(xian)也(ye)會(hui)浮(fu)現(xian)。

最(zui)近,来自(zi)北(bei)冥(ming)實(shi)驗(yan)室(shi)的錢(qian)小(xiao)一博(bo)士(shi),作(zuo)為(wei)一个堅(jian)持十年符号流(liu)派(pai)的科(ke)学工作者、創(chuang)業(ye)者,針(zhen)对ChatGPT模型发表(biao)了(le)一篇(pian)較(jiao)为冷(leng)靜(jing)和客(ke)觀(guan)的評(ping)價(jia)。

總(zong)體(ti)而(er)言(yan),我(wo)們(men)認(ren)为ChatGPT是一个裏(li)程(cheng)碑(bei)式(shi)事(shi)件(jian)。

預(yu)訓(xun)練(lian)模型開(kai)始(shi)顯(xian)现出(chu)强大效(xiao)果(guo)一年前(qian)就开始了,這(zhe)次到(dao)了一个新高度,从而被(bei)更(geng)多(duo)人關(guan)註(zhu);而这个里程碑之后,人類(lei)自然(ran)語(yu)言相(xiang)关的很(hen)多工作模式会开始改(gai)變(bian),甚(shen)至(zhi)有大量(liang)被機(ji)器(qi)替(ti)代(dai)。

沒(mei)有技(ji)術(shu)是一蹴(cu)而就的,相比(bi)看到其不(bu)足(zu),一个科学工作者更應(ying)该对其潛(qian)力有敏(min)感(gan)性。

作者簡(jian)介(jie)

作者钱小一博士是符号主义人工智能科学家(jia),高級(ji)工程師(shi),杭(hang)州(zhou)市(shi)高層(ceng)次认定(ding)人才(cai),邏(luo)辑仿(fang)生(sheng)framework 的早(zao)期探(tan)索(suo)者,第(di)一版(ban) M 语言符号体系(xi)的创作者。北冥星(xing)眸(mou)创始人、CEO、董(dong)事長(chang)。

上海(hai)交(jiao)通(tong)大学应用(yong)經(jing)濟(ji)学博士,美(mei)國(guo) CGU 德(de)魯(lu)克(ke)商(shang)学院(yuan)金(jin)融(rong)工程碩(shuo)士,浙(zhe)江(jiang)大学竺(zhu)可(ke)楨(zhen)学院丘(qiu)成(cheng)桐(tong)数学英(ying)才班(ban)数学金融雙(shuang)学士。通用AI领域(yu)研究已(yi)有11年,帶(dai)领團(tuan)隊(dui)進(jin)行(xing)工程实踐(jian)7年。

符号主义&连接主义的邊(bian)界(jie)

我们团队这次特(te)別(bie)关注ChatGPT,不是因(yin)为大眾(zhong)看到的惊艷(yan)效果,因为很多看似(si)惊艳效果我们還(hai)是能夠(gou)在技术层面(mian)理解(jie)的。

真(zhen)正(zheng)沖(chong)擊(ji)我们感官(guan)的是它(ta)部(bu)分(fen)任(ren)務(wu)中(zhong)突(tu)破(po)了符号流派和神(shen)经流派的边界——逻辑能力,在类似自代碼(ma)和评价代码等(deng)若(ruo)幹(gan)任务中ChatGPT似乎(hu)体现了这种能力。

一直(zhi)以(yi)来我们认为符号流派是擅(shan)长再(zai)现人类强逻辑的智能的,比如如何解決(jue)一个問(wen)題(ti),分析(xi)一个问题的原(yuan)因,创造(zao)一个工具(ju)等等;

我们可以理解这些(xie)能力,可以通過(guo)更大的模型,更多優(you)質(zhi)的数据,强化(hua)学习循(xun)環(huan)增(zeng)强的方式来变得(de)非(fei)常(chang)出众。

我们认为人类身上兼(jian)有符号和神经兩(liang)个技术路(lu)徑(jing)的特征(zheng),比如所(suo)有可反(fan)思(si)认知(zhi)过程、知識(shi)的学习和運(yun)用过程、大量可反思的思維(wei)、行为、表達(da)模式、可反思的動(dong)机、情(qing)緒(xu)都(dou)是容(rong)易(yi)在以符号表征为基(ji)礎(chu)系統(tong)解釋(shi)和再现。

能够在看完(wan)第一个電(dian)視(shi)劇(ju)后自然而然具備(bei)模仿男(nan)主角(jiao)說(shuo)話(hua)的能力;

在经歷(li)过足够多的对话后,能够不过腦(nao)的聊(liao)天(tian),这些都是神经的特征。

我们可以把(ba)强逻辑的部分比喻(yu)为长骨(gu)頭(tou),「非逻辑的規(gui)律(lv)掌(zhang)握(wo)能力」比喻成长肉(rou)。

以符号「长骨架(jia)」的能力去(qu)「长肉」是困難(nan)的,同(tong)樣(yang)神经以「长肉」的能力去「长骨架」也是艱(jian)难的。

正如我们在陪(pei)伴(ban)AI搭(da)建(jian)过程中符号系统擅长把握对话者特定维度的信(xin)息(xi),分析背(bei)后的意(yi)圖(tu),推(tui)知相关的事件,給(gei)出精(jing)準(zhun)的建議(yi),但不擅长创造平(ping)滑(hua)自然的对话。

我们也看到GPT为代表的对话生成模型雖(sui)然能创造平滑的对话,但在对话中使(shi)用长期記(ji)憶(yi)创造连貫(guan)的陪伴、產(chan)生合(he)理的情绪动机、完成有一定深度的逻辑推理以给出分析建议,在这些方面的实现上是艰难的。

大模型的「大」並(bing)非是一个优勢(shi),而是统計(ji)类算法試(shi)图从表层数据掌握一部分其內(nei)蘊(yun)的强逻辑主导的规律付(fu)出的对价,它体现了符号和神经中間(jian)的边界。

在对ChatGPT的原理有了更深入(ru)地(di)了解后,我们发现它只(zhi)是把较为單(dan)純(chun)的逻辑运算视为一种规律训练生成,并没有突破原有的统计算法的範(fan)疇(chou)——也就是系统的消(xiao)耗(hao)仍(reng)然会隨(sui)着逻辑任务深度的增加幾(ji)何增长。

但为何ChatGPT又(you)能突破原有大模型的極(ji)限(xian)呢(ne)?

ChatGPT如何突破普(pu)通大模型的技术极限

讓(rang)我们以非技术的语言来说明(ming)ChatGPT如何突破其他(ta)大模型极限背后的原理。

GPT3在出现時(shi)就体现出了超(chao)越(yue)其他大模型的体验。这和自監(jian)督(du),也就是数据的自標(biao)注相关。

仍然以对话生成为例(li)子(zi):一个大模型以海量数据训练掌握了60輪(lun)对话和下一句(ju)表达的规律。

为何需(xu)要(yao)那(na)麽(me)多数据呢?为何人类在看完一部电视剧后就可以模仿男主角的说话?

因为人类并不是以前面多少(shao)轮对话作为輸(shu)入去掌握下句说什(shen)么的规律,而是在主观对话过程中形(xing)成了对语境(jing)的理解:表达者有人格(ge)品(pin)质、有怎(zen)样的當(dang)前情绪、动机,聯(lian)想(xiang)到怎样的知识,再加上前面若干轮的对话来掌握下句说什么的规律。

考(kao)察(cha)一个大模型服(fu)务是否(fou)在训练时对某(mou)类语境信息进行了自标注,可以通过考察对话生成是否对此(ci)类语境信息具有敏感性(生成的对话是否体现了对此语境信息的考慮(lv))来判(pan)斷(duan)。

人工编寫(xie)期望(wang)的输出是第二(er)个发揮(hui)作用的點(dian)。

ChatGPT在若干类型的任务中使用了人工编写输出,用来微(wei)調(tiao)已经习得对话生成一般(ban)规律的GPT3.5的大模型。

这是预训练模型的精神——一个封(feng)閉(bi)場(chang)景(jing)的对话规律,实際(ji)上可能99%以上还是体现了人类对话生成的一般规律,而场景特有的规律只有不到1%。从而可以用一个训练好的掌握人类对话一般规律的大模型加上額(e)外(wai)训练一个针对封闭场景的小模型达到效果,而用来训练场景特有规律的样本可以很小。

接下来一个发挥作用的机制(zhi)是ChatGPT融合了强化学习,整(zheng)个过程大概(gai)是这样的:

起(qi)始准备:一个预训练模型(GPT-3.5),一群(qun)训练有素(su)的laber,一系列(lie)prompt(指(zhi)令(ling)或(huo)者是问题,收(shou)集(ji)於(yu)大量用戶(hu)的使用过程和laber的設(she)计)。

Step1:随机采(cai)样得到大量的prompt,数据人員(yuan)(laber)根(gen)据prompt提(ti)供(gong)规范的回(hui)復(fu)。数据人员可以將(jiang)prompt输入到GPT-3.5,參(can)考模型的输出来輔(fu)助(zhu)其提供规范的答(da)案(an)。

通过该方式可收集到数据<prompt,answer>,大量数据組(zu)成数据集。

基于该数据集通过监督学习的方式对GPT-3.5模型进行微调,微调后得到的模型暫(zan)稱(cheng)为GPT-3.X。

Step2:随机采样一些prompt(大部分在step1中被采样过),针对每一个prompt通过GPT-3.X生成K个回答(K>=2)。

Laber对K个回答进行排(pai)序(xu),大量排序后的对比数据可组成数据集,基于该数据集可训练出打(da)分模型。

Step3:采用强化学习策(ce)略(lve)PPO来叠(die)代地更新GPT-3.X和打分模型,最終(zhong)得到策略模型。由(you)GPT-3.X初(chu)始化策略模型的参数,采样一些在step1、step2中未(wei)被采样过的prompt,通过策略模型产生输出,由打分模型对输出进行打分。

根据打分产生的策略梯(ti)度来更新策略模型的参数进而得到能力较强的策略模型。

让较强的策略模型参与到step2中,通过laber排序标注得到新的数据集,又可以更新得到更为合理的打分模型。

更新的打分模型参与到step3中,又会得到更新的策略模型。迭代地进行step2、step3,最终得到的策略模型即(ji)为ChatGPT。

如果妳(ni)不熟(shu)悉(xi)以上的语言,这里有一个容易理解的比喻:这就好比让ChatGPT去学武(wu)功(gong),人类的回应就是大师的套(tao)路,GPT3.5是一个武术愛(ai)好者的套路,打分的神经網(wang)絡(luo)就是一个评价者,告(gao)訴(su)ChatGPT每场比赛誰(shui)的表现更优秀(xiu)。

于是ChatGPT就能在第一次观察人类大师和GPT3.5的比较中,在GPT3.5的基础上往(wang)人类大师的方向(xiang)改进一点,接下来让进化一次后的ChatGPT作为武术爱好者参与到和人类大师的比较中,打分神经网络再次告诉它差(cha)距(ju)在哪(na),从而它能再次变得更优。

这和傳(chuan)统神经网络的差别是什么呢?

传统神经网络是直接让一个神经网络模仿人类大师,而这个新模式是让神经网络掌握一个已经不錯(cuo)武术爱好者和大师的差别,这样它能在已有的基础上向人类大师的方向做(zuo)細(xi)微的调整,不断精进。

从上面的原理上可以看到,这样生成的大模型是以人类标注样本作为表现极限的。

也就是说它只是极限地掌握了人类标注样本的反应模式,但不具备创造新反应模式的能力;其次,作为一种统计类型的算法,样本质量会影(ying)響(xiang)模型输出的准確(que)性,这点是ChatGPT在介入搜(sou)索和咨(zi)詢(xun)场景的致(zhi)命(ming)缺陷。

类似健(jian)康(kang)咨询的需求(qiu)是嚴(yan)謹(jin)的,这就不適(shi)合由这类模型獨(du)立(li)完成。

而ChatGPT体现出的代码能力和代码评价能力来源(yuan)于github上大量的代码、代码描(miao)述(shu)标注、修(xiu)改记錄(lu),这个仍然是统计类算法可及(ji)的范畴。

ChatGPT传遞(di)的一个很好的信号是,我们的确可以利(li)用类似「人类劃(hua)重(zhong)点」、「强化学习」等更多的思路提升(sheng)「模型效率(lv)」。

「大」不再是和模型能力掛(gua)鉤(gou)的唯(wei)一指标,比如13億(yi)参数的InstructGPT效果优于175亿参数的GPT-3。

盡(jin)管(guan)如此,因为训练对运算資(zi)源的消耗只是大模型的門(men)檻(kan)之一,其次就是高质量且(qie)大规模的数据,我们认为早期的商业格局(ju)仍然是:大廠(chang)提供大模型的基础设施(shi)建设,小厂基于此做超级运用。而成为巨(ju)头的小厂再去训练自己(ji)的大模型。

符号和神经的結(jie)合

我们认为符合和神经结合的潜力体现在两点:在「骨头」上训练「肉」,在「骨头」上使用「肉」。

如果表层样本下蕴含(han)了强逻辑的脈(mai)络(骨头),比如前面对话训练的例子,语境要素就是骨头,那么单纯从表层样本训练出包(bao)含骨头的规律,代价是高昂(ang)的,体现在样本的需求和更高模型训练的成本,也就是大模型的「大」上。

如果一个大模型是这么训练出来,那么它的输出对强逻辑的條(tiao)件是敏感的。

比如在对话生成任务上,我们在输入加入对话双方的当前情绪、动机,联想到的知识、相关事件,大模型生成的对话能一定几率体现出对这些语境信息的反应。这就是在强逻辑的「骨头」上使用「肉」。

之前我们在陪伴级别AI的开发上遇(yu)到符号無(wu)法创造平滑对话的问题,如果用户不願(yuan)意和AI对话,AI背后一切(qie)逻辑、情绪能力都无从展现,也不具备不断优化迭代的条件,我们通过类似上面和预训练模型的结合解决了对话的平滑性。

而站(zhan)在大模型的角度,单纯大模型创造AI是缺乏(fa)整体性和立体感的。

「整体性」主要体现在对话生成是否考虑语境相关的长期记忆。

比如AI和用户在上一天的聊天中聊到用户感冒(mao),去过醫(yi)院,有各种癥(zheng)狀(zhuang),持續(xu)了多长时间……;第二天用户突然表达说「我喉(hou)痛(tong)好痛」。

在单纯的大模型中,AI会拿(na)语境中的内容进行回应,会表达「为什么喉嚨(long)痛啊(a)」,「你去医院了嗎(ma)」……,这些表达馬(ma)上和长期记忆发生了矛(mao)盾(dun),体现出长期记忆不一致性。

通过和符号系统的结合AI可以通过联想,从「用户第二天还是喉咙痛」联想到「用户昨(zuo)天感冒」联想到「用户去过医院」,「用户其他症状」……把这些信息放(fang)到语境中,如此可以利用大模型的语境一致性能力体现出长期记忆的一致性。

「立体感」体现在AI是否有執(zhi)念(nian)。

是否会像(xiang)人类一样执着于自己的情绪、动机、观念。单纯大模型创造的AI会随机提醒(xing)一个人应酬(chou)少喝(he)酒(jiu),而结合符号系统后会因为长期记忆中知道用户肝(gan)不好,结合肝不好不能喝酒的常识,生成强烈的持续的让用户不能喝酒的建议,并且在应酬后跟(gen)进用户是否喝酒,且会因为用户的不自律影响情绪,从而影响后续的对话,这是立体感的体现。

大模型是通用人工智能吗?

从预训练模型实现的机理看,它并没有突破统计算法「掌握样本规律」的能力范畴,只是借助计算机的載(zai)体优势,把这个能力发挥到一个非常高的水(shui)准線(xian),甚至体现出了它有一定逻辑能力和求解能力的假(jia)象(xiang)。

单纯预训练模型不会擁(yong)有人类的创造力、带有深度的逻辑推理能力、以及对复雜(za)任务的求解能力。

所以预训练模型它因为低(di)成本遷(qian)移(yi)到具体场景具有一定的通用性,但不具备人类那样的「通过有限底(di)层智能机制泛(fan)化出上层变化萬(wan)千(qian)智能表象」的通用智能。

其次我们要講(jiang)讲「湧(yong)现」,在大模型的研究中,研究者会发现当模型参数规模和数据规模突破某些臨(lin)界值(zhi)时,有些能力指标迅(xun)速(su)增强,呈(cheng)现出涌现效应。

事实上任何具有抽(chou)象学习能力的系统,都会显现出「涌现」。

这个与抽象类运算的本质有关——「不执着于个别样本或猜(cai)想的正确性,而是立足于整体样本或猜想的统计正确性」。

所以在样本量足够,且模型能支(zhi)撐(cheng)样本细致规律的发现,就会突然形成某种能力。

在偏(pian)符号的思维工程中,我们看到符号类AI在学习语言的过程也会像人类幼(you)兒(er)的语言习得那样出现「涌现」,在聽(ting)读到了一定程度,听读的理解力和说的能力会突飛(fei)猛(meng)进。

总之,我们把涌现作为一个现象是没问题的,但把所有不清(qing)楚(chu)机理的系统功能突变都解释为涌现,并指望一个单纯算法的规模到一定程度就能涌现出人类的整体智能,这不是一个严谨的科学態(tai)度。

通用人工智能

人工智能这个概念几乎伴随计算机的产生而产生,在那时是一个樸(pu)素的想法,把人类的智能移植(zhi)到计算机中,这就是人工智能的起点,最早的人工智能概念指的就是「通用人工智能」。

人类的智能模式是通用智能,这种智能模式移植到计算机就是通用人工智能。

之后出现了不少试图再现人类智能机制的流派,但这些流派都没有创造太(tai)出众的成果,以至于Deepmind的傑(jie)出科学家强化学习的奠(dian)基人Rich Sutton强烈表达了一个观点:

从过去70年的人工智能研究中可以獲(huo)得的最大教(jiao)训是:为了尋(xun)求在短(duan)期内的作为,研究人员更傾(qing)向于利用人类对该领域的经验和知识(模仿人类的机制),而从长遠(yuan)来看,利用可擴(kuo)展的一般计算方法才是最终是有效的。

今(jin)天大模型的出众成就佐(zuo)證(zheng)了他对「算法主义」的主張(zhang)正确性,但不意味(wei)着「效法造物(wu)造人」创造智能体的路径就一定是错的。

那么为什么之前效法人类的流派都相繼(ji)受(shou)挫(cuo)呢?这和人类智能内核(he)的整体性有关。

简单来说人类的语言、认知、情绪决策、和学习能力形成的子系统在大多任务的实现上都是相互(hu)支持的,没有任何一个子系统可以独立跑起来。

作为一个整体性很高的系统,一个上层的表象来自諸(zhu)多底层机制的配(pei)合,只要有一个有缺陷,就会影响这个表层效果的显现。

就好比人体,也是一个复杂性很高的系统,一个健康的人和一个生病(bing)的人可能相差细微,但这个细微的病理差異(yi)就让一个人各个维度的功能受到抑(yi)制。

同样对于通用人工智能可能前面99步(bu)显现的效果是很有限的,当我们完成最后一片(pian)拼(pin)图,前面99步该有的功能才显现出来。

之前的流派都从自己的视角看到了人类智能整体的一部分,也在效法人类中取(qu)得了一定成果,但这相比整体系统能释放的能量而言只是零(ling)头的零头。

过程智能和人类文(wen)明

人类每个局部智能已经或正在被计算机远远超越,但即使在所有局部智能都被计算机超越的情況(kuang)下,我们仍然能断言唯有人类能创造文明,计算机只是工具。

为什么?

因为创造文明背后的是人类各类智能活(huo)动的过程,也就是说人类文明来自于「过程智能」。这是在当前被严重忽(hu)略的方向。

「认知过程」不是一个任务,它是很多任务在一个过程的组織(zhi)。

比如AI要治(zhi)愈(yu)患(huan)者体现出的症状,是个「目(mu)标求解」的任务。

首(shou)先(xian)要轉(zhuan)为歸(gui)因求解,这算是一个认知任务,它找(zhao)到可能的原因后就变为判断可能疾(ji)病是否发生的「具体事件发生求解」的任务,这个任务又会继续分解转移到其他任务,过程中如果缺少知识又会变为对「知识的求解」的任务。

可以通过询问、搜索、閱(yue)读去获得已有知识,也可以「统计认知」;统计认知发现相关性后可以进一步去洞察背后的因果鏈(lian)条实现更好的干预,而到了这步往往又会因为缺少知识转为对知识的求解,为了验证猜想需要设计实验进行具体事件发生求解……

有了因果链条后,就可以再次嘗(chang)试实现目标,进行因果链条干预,把原始目标转为创造、终止(zhi)、阻(zu)止发生、维持因果链条中的事件,这又回到了一类「目标求解」的过程……

从这个角度来看,类似ChatGPT的技术是用来实现任务的,偏符号的通用人工智能框(kuang)架是把这些局部的任务能力组织起来支持类似人类的智能活动的过程的。

通用人工智能是「人」的本体它可以利用内化的能力,外化的工具完成任务,并组织这些任务支持智能活动的过程。

人类有很强的羊(yang)群效应,一个處(chu)于高产出期的流派会吸(xi)引(yin)絕(jue)大部分的研究者。

很少独立反思一个技术路径天然的能力边界,以及独立在宏(hong)观的层面寻找有更大价值的研究方向。

我们可以想象,如果我们能在计算机上去再现人类的整体智能,让机器能支持起独立探索认知、创造工具、解决问题实现目标的过程,借助计算机的载体优势,人类的整体智能和过程智能和以往一样被放大,我们才能真正释放出人工智能的能量,支撑人类文明到新的高峰(feng)。返(fan)回搜狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:河北省邯郸武安市