1992年cctv1广告

1992年CCTV1广告:唤醒记忆中的经典

对于80后和90后的人来说,CCTV1广告无疑是童年记忆中难以磨灭的一部分。每当听到那段熟悉的旋律,便会想起那些曾经的岁月和无数美好的回忆。1992年CCTV1广告首播,如今已经过去了27年,但是它的影响力和记忆力依然存在,成为了中国广告界的经典之作。

记忆

1992年CCTV1广告的主题是“鼓励创新,推广发展”,这也是中国改革开放初期的时代背景所决定的。广告中展示了中国在经济、科技等各个领域的成就与进步,同时也展示了中国人民对未来的美好向往和信心。广告的背景音乐是一首由中国作曲家叶小纲创作的《我们走在大路上》,这首歌曲的旋律激昂嘹亮,具有很强的感染力,成为了广告中最引人注目的元素之一。

创新

除了广告的主题和音乐外,CCTV1广告的画面也是非常精彩的。广告中出现了众多中国的科技成果和民生变革,如云天化、北斗导航等等。通过这些画面,广告成功地传达了中国发展和进步的信息,并且激发了人们对于未来的期望和信心。广告最后出现的一句话“创新是一个民族进步的灵魂”也成为了中国广告界的经典名言。

未来

广告的意义与价值

1992年CCTV1广告的意义和价值不仅仅是一个广告,更是一个时代的缩影和中国广告界的经典。广告成功地传达了中国在经济、科技等方面的成就和进步,并且展示了中国人民对于未来的美好向往和信心。此外,广告的画面和背景音乐也非常出色,让人们对于广告有了更深刻的记忆和体验。广告中的名言“创新是一个民族进步的灵魂”也成为了中国广告界的经典名言,深刻影响了中国广告界的发展。

结论

1992年CCTV1广告是中国广告界的经典之作,它成功地传达了中国在经济、科技等方面的成就和进步,并且展示了中国人民对于未来的美好向往和信心。广告中的名言“创新是一个民族进步的灵魂”也成为了中国广告界的经典名言,深刻影响了中国广告界的发展。这个广告虽然已经过去27年,但是它的影响力和记忆力依然存在,成为了中国广告界的经典之作,唤醒着人们心中记忆中的美好。

经典

1992年cctv1广告特色

1、充满挑战的联赛模式,等你登顶成为最强玩家

2、极客时间app下载

3、乱世英雄激情争霸,史诗对决跨服联盟;

4、更多的妆容选择

5、鹏保宝加密方案为你量身打造!

1992年cctv1广告亮点

1、丰富的游戏活动,保持绝对的冷静去,千万不要被敌人炸到,保持冷静。

2、生物认证在线授权金融科技保驾护航

3、各式各样的酷炫时装羽翼等你收集,满足你的收集欲望。

4、药品很全,而且都是正品低价,购买更实惠;

5、各个类型的成语都会在手机当中带来,让你能够全方位的考验自己掌握成语知识的能力。

chongmantiaozhandeliansaimoshi,dengnidengdingchengweizuiqiangwanjiajikeshijianappxiazailuanshiyingxiongjiqingzhengba,shishiduijuekuafulianmeng;gengduodezhuangrongxuanzepengbaobaojiamifanganweiniliangshendazao!LeCun再(zai)炮(pao)轟(hong)Marcus: 他(ta)是(shi)心(xin)理(li)學(xue)家(jia),不(bu)是搞(gao)AI的(de)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):David Aeneas

【新智元導(dao)讀(du)】最(zui)近(jin),LeCun在(zai)采(cai)訪(fang)中(zhong)犀(xi)利(li)點(dian)評(ping)了(le)兩(liang)位(wei)老(lao)對(dui)手(shou):Marcus是個(ge)心理学家,不是搞AI的;Schmidhuber是个插(cha)旗(qi)的。

最近,LeCun接(jie)受(shou)了ZDNet的采访,表(biao)示(shi)當(dang)今(jin)的大(da)多(duo)數(shu)人(ren)工(gong)智能(neng)方(fang)法(fa)永(yong)遠(yuan)不會(hui)帶(dai)來(lai)真(zhen)正(zheng)的人工智能。

而(er)采访中最為(wei)精(jing)彩(cai)的部(bu)分(fen),当然(ran)還(hai)是和(he)老对手們(men)的隔(ge)空(kong)炮火(huo)。

LeCun語(yu)不驚(jing)人死(si)不休(xiu),犀利表示: Schmidhuber就(jiu)是个插旗的,而Marcus根(gen)本(ben)不是搞AI的,他只(zhi)是个心理学家。

LeCun懟(dui)老对手,语出(chu)惊人

在6月(yue),Meta的首(shou)席(xi)人工智能科(ke)学家Yann LeCun曾(zeng)經(jing)發(fa)表了壹(yi)篇(pian)60頁(ye)長(chang)文(wen),描(miao)述(shu)了他認(ren)为有(you)望(wang)在機(ji)器(qi)中實(shi)現(xian)人類(lei)智能水(shui)平(ping)的方法。

論(lun)文地(di)址(zhi):https://openreview.net/pdf?id=BZ5a1r-kVsf

他在论文中暗(an)示道:今天(tian)的大多数人工智能大項(xiang)目(mu)將(jiang)永远無(wu)法達(da)到(dao)人类的水平。

而最近,LeCun在接收(shou)ZDNet采访時(shi)表示:即(ji)使(shi)是目前(qian)深(shen)度(du)学習(xi)領(ling)域(yu)最成(cheng)功(gong)的研(yan)究(jiu)途(tu)徑(jing),他也(ye)抱(bao)有極(ji)大的懷(huai)疑(yi)。

「我(wo)认为它(ta)们是必(bi)要(yao)的,但(dan)还不夠(gou)。」他說(shuo)。

其(qi)中就包(bao)括(kuo)大型(xing)语言(yan)模(mo)型,比(bi)如(ru)如基(ji)於(yu)Transformer的GPT-3及(ji)其同(tong)类。正如LeCun所(suo)描述的那(na)樣(yang),Transformer的信(xin)徒(tu)们相(xiang)信:「只要我们把(ba)一切(qie)都(dou)標(biao)記(ji)化(hua),然後(hou)訓(xun)練(lian)巨(ju)大的模型来進(jin)行(xing)離(li)散(san)的預(yu)測(ce),人工智能就会以(yi)某(mou)種(zhong)方式(shi)從(cong)這(zhe)裏(li)出现。」

「他们沒(mei)有錯(cuo),」他说,「从某种意(yi)義(yi)上(shang)说,这可(ke)能是未(wei)来智能系(xi)統(tong)的一个組(zu)成部分,但我认为它缺(que)少(shao)必要的部分。」

对于在完(wan)美(mei)使用(yong)卷(juan)積(ji)神(shen)经網(wang)絡(luo)的学者(zhe)来说,这种批(pi)评真是够惊人的。

在人工智能的許(xu)多非(fei)常(chang)成功的领域中,LeCun看(kan)到了缺陷(xian)和局(ju)限(xian)。他对于強(qiang)化学习领域,他也持(chi)同样的觀(guan)点:跟(gen)这些(xie)领域一样,强化学习也永远不够完美。

雖(sui)然DeepMind的David Silver等(deng)研究人員(yuan)已(yi)经開(kai)发出了掌(zhang)握(wo)國(guo)際(ji)象(xiang)棋(qi)、将棋和圍(wei)棋的AlphaZero程(cheng)序(xu),但LeCun说:「我们的大部分学习過(guo)程,不是通(tong)过实际行動(dong)来完成,而是通过观察(cha)来完成的。」

Lecun已经62歲(sui)了,在这个领域浸(jin)淫(yin)了幾(ji)十(shi)年(nian)后,他认为自(zi)己(ji)有必要对许多人做(zuo)出提(ti)醒(xing):妳(ni)们急(ji)匆(cong)匆走(zou)上的,是一條(tiao)盲(mang)道。

「有很(hen)多人在討(tao)论,我们應(ying)該(gai)做什(shen)麽(me)来实现人类水平的人工智能。很多人的说法是错誤(wu)的。」

「我们的智能机器还没有达到像(xiang)貓(mao)一样具(ju)有常識(shi)的地步(bu),」他说。「我们为什么不从这里开始(shi)呢(ne)?」

他已经放(fang)棄(qi)了在预测視(shi)頻(pin)中的下(xia)一幀(zhen)上使用生(sheng)成网络的信念(nian)。「这是一次(ci)徹(che)底(di)的失(shi)敗(bai)。」

在他眼(yan)里,那些「宗(zong)教(jiao)概(gai)率(lv)论者」应该被(bei)譴(qian)責(ze)——在这些人看来, 概率论是可以用来解(jie)釋(shi)机器学习的唯(wei)一框(kuang)架(jia)。

在LeCun看来,純(chun)粹(cui)的统計(ji)方法是不可能的。「要讓(rang)一个世(shi)界(jie)模型完全(quan)服(fu)从概率论,这要求(qiu)也太(tai)高(gao)了;我们不知(zhi)道该如何(he)做到。」

LeCun认为,不僅(jin)是学術(shu)界,工業(ye)上的人工智能也需(xu)要重(zhong)新思(si)考(kao)。在他看来,自动駕(jia)駛(shi)汽(qi)車(che)公(gong)司(si),比如Wayve,一直(zhi)「过于樂(le)观」,因(yin)为他们认为只要把数據(ju)扔(reng)到大型神经网络里,就可以学到任(ren)何東(dong)西(xi)。

「我们完全有可能擁(yong)有没有ADAS(高級(ji)驾驶輔(fu)助(zhu)系统)的五(wu)级自动驾驶汽车,但不得(de)不对它进行工程設(she)计。」

他认为,这种过度设计的自动驾驶技(ji)术,会和所有因深度学习而过时的计算(suan)机视覺(jiao)程序一样,非常脆(cui)弱(ruo),非常易(yi)碎(sui)。

「最終(zhong),会有一个更(geng)令(ling)人滿(man)意、更好(hao)的解決(jue)方案(an),这个系统能更好地理解世界的運(yun)轉(zhuan)方式。」

LeCun还提出了重要的一点:所有AI都面(mian)臨(lin)著(zhe)同样的基本問(wen)題(ti),特(te)別(bie)是如何测量(liang)信息(xi)。

「你必須(xu)退(tui)一步说,好吧(ba),我们建(jian)了这个梯(ti)子(zi),但我们的目的是去(qu)月球(qiu),这个梯子不可能把我们送(song)上月球。」LeCun说他希(xi)望促(cu)使人们重新思考基本概念。「我的意思是,我们需要建造(zao)火箭(jian),我不能告(gao)訴(su)你建造火箭的細(xi)節(jie),但这是基本原(yuan)則(ze)。」

好了好了,采访中最喜(xi)聞(wen)乐見(jian)的嘴(zui)炮part来了。

首先(xian),被LeCun炮轰的对象是Dalle Molle人工智能研究所主(zhu)任Jürgen Schmidhuber。Schmidhuber曾怒(nu)怼LeCun剽(piao)竊(qie)了自己的学术成果(guo)。

Le Cun表示,Schmidhuber在社(she)交(jiao)网络上发表的观点,根本不是事(shi)实。他只是在插旗:有了一个想(xiang)法建議(yi)你怎(zen)么做,然后寫(xie)下来,没有任何实驗(yan),没有任何理论。

像他这样跟玩(wan)兒(er)似(si)的做法,和真正的做理论(说明(ming)它为什么有用,然后付(fu)諸(zhu)实踐(jian)),这其中有很大的區(qu)别。这之(zhi)中有一个完整(zheng)的鏈(lian)条。

而在Schmidhuber看来,誰(shui)第(di)一个有这个想法,谁就占(zhan)頭(tou)功,这很荒(huang)謬(miu)。

他说我应该引(yin)用的论文中,並(bing)不包含(han)我论文中的任何主要观点。他在GANs和其他事情(qing)上也是这么做的,結(jie)果根本不像他说的那样。插旗很容(rong)易,要做出貢(gong)獻(xian)可就難(nan)多了。

順(shun)便(bian)说一下,对于这篇论文,我明確(que)表示了这不是一篇通常意义上的科学论文,它更像是一份(fen)關(guan)于走向(xiang)何處(chu)的立(li)場(chang)文件(jian)。我并不要求我在论文中写的大部分內(nei)容有任何優(you)先權(quan)。

而LeCun的老对头,紐(niu)約(yue)大学教授(shou)Gary Marcus自然也逃(tao)不过他的炮火。

在談(tan)到通过在神经网络上添(tian)加(jia)符(fu)號(hao)推(tui)理来推动人类水平的人工智能时,LeCun表示自己不知道如何做到这一点。

他表示,自己在论文中介(jie)紹(shao)了一种方法,可以在没有明确符号操(cao)作(zuo)的情況(kuang)下就能做到这一点。这就是Gary Marcus的做法。

接着,LeCun爆(bao)出神评论——

「Gary Marcus不是一个搞AI的,他是一个心理学家。他从未对人工智能做出任何贡献。他在实验心理学方面有不错的成果,但他从来没有写过一篇关于人工智能的同行评審(shen)论文。没错,有些人就是这样。」

Marcus大翻(fan)老黃(huang)歷(li):LeCun说的那些,我早(zao)就说过了

ZDNet的專(zhuan)访头一天发出,Gary Marcus的回(hui)怼文章(zhang)第二(er)天就来了!

Marcus发文表示:

62岁的知名(ming)深度学习先驅(qu)Yann LeCun,纽约大学教授,圖(tu)靈(ling)獎(jiang)得主,Meta公司的首席人工智能科学家,近年来对深度学习的新想法是一个接一个。

就在六(liu)月初(chu),LeCun发表了一篇被廣(guang)泛(fan)讨论的「宣(xuan)言」,以及一篇对我的工作的评论。但是他所说的有多少是真正的新东西呢?

昨(zuo)天那篇ZDNet对LeCun的采访,我看了之后很震(zhen)惊,因为LeCun所说的几乎(hu)所有内容,我之前都说过,有些几乎是一字(zi)不差(cha),其中大部分是在2018年一篇名为《Deep Learing:A Critical Appraisal》的论文中,LeCun当时说我講(jiang)的「大部分是错误的」。

论文链接:

https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf

那么他2022年讲了什么?我之前在2018年甚(shen)至(zhi)之前又(you)讲过什么?

我只舉(ju)几个例(li)子。

LeCun:今天的人工智能方法永远不会导致(zhi)真正的智能

馬(ma)庫(ku)斯(si):如果我们要实现通用人工智能,深度学习必须得到其他技术的補(bu)充(chong)。

LeCun:目前的深度学习模型可能是未来智能系统的一个组成部分,但我认为它缺少必要的部分。我认为它们是必要的,但还不够。"

马库斯:盡(jin)管(guan)我勾(gou)勒(le)了所有的问题,但我不认为我们需要放弃深度学习。相反(fan),我们需要重新认识它:不是作为一种通用的工具,而只是作为眾(zhong)多工具中的一种。"

LeCun:强化学习也永远无法满足(zu)智能需求。

马库斯:将深度强化学习與(yu)誘(you)导概念聯(lian)系在一起(qi)是一种误导。

LeCun:我认为AI系统需要能够推理;

Marcus:那些与分类关系不大、与常识性(xing)推理关系較(jiao)大的问题,基本上不在深度学习的範(fan)围内,而且(qie)就我所知,深度学习对这类问题没有什么幫(bang)助。

LeCun(2022):你必须退一步说,好吧,我们建了这个梯子,但我们想去月球,这个梯子不可能把我们带到月球。

马库斯(2012):套(tao)用一个古(gu)老的寓(yu)言,Hinton通过深度学习造了个更好的梯子;但一个更好的梯子不一定(ding)能让你上月球。

从来没有人比LeCun更仔(zai)细地重述我讲过的论点,而不註(zhu)明出处。

让一个这么厲(li)害(hai)的人,几次三(san)番(fan)地讲出我之前早就说过的观点,这算不算我又一次贏(ying)麻(ma)了?

如果说上面这段(duan)屬(shu)于是为自己爭(zheng)取(qu)Credit的話(hua),Marcus博(bo)客(ke)后半(ban)部分的内容看起来就完全是針(zhen)对LeCun本人了。

比如Marcus说,LeCun不想让人发现说过我曾经说过的观点,也不对这些观点分享(xiang)任何credit,这是違(wei)反学术禮(li)儀(yi)的。

另(ling)外(wai),为了孤(gu)立我,他在采访中对我进行了无端(duan)的、完全不实的抨(peng)擊(ji),聲(sheng)稱(cheng)「Gary Marcus不是AI研究人员,他是一个心理学家,从未对AI做出任何贡献。他在实验心理学方面做了非常好的工作,但他从来没有写过一篇关于AI的同行评议的论文」。

这完全是错误的。实际上,我在AI领域发表了大量的文章,有些是在同行评议的期(qi)刊(kan)上,有些不是。我最重要的人工智能论文,对神经网络做了实验性工作,在1998年就预见到了分布(bu)转移(yi)和異(yi)常值(zhi)的挑(tiao)戰(zhan),这些问题到现在还在困(kun)擾(rao)着Bengio等人。

也许我最有影(ying)響(xiang)力(li)的AI工作恰(qia)好不是一篇期刊文章,而是2001年由(you)MIT出版(ban)的《代(dai)数思維(wei)》一書(shu)。LeCun在ZDNet的访谈中的几乎每(mei)一个观点,在这本书里都有提及。

LeCun真正的意思是,他没读过这本书,读都没读过,就认为没有影响的想法是可笑(xiao)的。

LeCun的说法过于离譜(pu),以至于不少人在访谈发出后,都来为我说话;ZDNet也立即发布了更正说明。

Vmind.AI的首席執(zhi)行官(guan)Miguel Solano发推表示对我表示支(zhi)持。

Henning Schwabe 更是直接讲LeCun的访谈过于自大,而自大正是理性的敵(di)人:

为了建立自己的学术地位,人们有时会对credit做出不負(fu)责、不道德(de)的行为。哈(ha)羅(luo)德·布魯(lu)姆(mu)曾经写过一本书,他称之为《影响的焦(jiao)慮(lv)》。直到今年,我还没有在像LeCun这样榮(rong)譽(yu)等身(shen)的人身上看到这样的傾(qing)向。但从今年开始,我从他身上看到了一次又一次。

LeCun最近的每篇论文和文章都以自己的方式表现出对过去的否(fou)定。

关于符号操作的问题。LeCun花(hua)了不少时間(jian)来抨击符号操作,他的合(he)作者之一Hinton更是如此(ci),他们在2015年联合撰(zhuan)写的一篇深度学习评论中说, 「需要新的范式来取代基于規(gui)则的符号表达的操作」。

如今,LeCun卻(que)在认可符号操作了,并表现得好像之前的抨击不存(cun)在一样。

甚至斯坦(tan)福(fu)大学人工智能教授克(ke)里斯托(tuo)弗(fu)·曼(man)寧(ning)都感(gan)到震惊。

LeCun最近的另一篇文章涉(she)及到一个重要的问题,大型语言模型是否真的在通往(wang)AGI的正确道路(lu)上,模型是否真的可以仅从语言中学习到足够的知识。

LeCun和他的合作者Browning提出了一个强有力的理由,即仅有语言輸(shu)入(ru)(即GPT-3的训练对象)是不够的.

他们写了一篇名为《AI And The Limits Of Language》的文章,认为 「仅靠(kao)语言训练的系统永远不会接近人类的智慧(hui),即使从现在开始训练到宇(yu)宙(zhou)的尽头也不行。」

但这个观点又是我在2020年2月在一篇名为《人工智能的下一个十年》的arXiv预印(yin)本文章中就提出来的。

「等待(dai)认知模型和推理从越(yue)来越大的训练语料(liao)库中神奇(qi)地出现,就像是在等待一个奇跡(ji)......」

这几乎就是LeCun和Browning的结论。

我之前早就说过,大型语言模型的问题在于缺乏(fa)认知模型,光(guang)靠餵(wei)语料训练是达不到智能模型的。

然后LeCun说我现在才(cai)说这些已经为时已晚(wan):

我先提出的观点,他现在发现我说的对,就宣称这个观点是他先提的,然后拿(na)出来攻(gong)击我,我还能说什么呢?

而且现在看来,远不只是我一个人对LeCun的大包大攬(lan)有意见。

早先,LeCun那个「宣言」文剛(gang)发出来时,就有德国计算神经学家、AI研究人员Patrick Krauss 发推「恭(gong)喜」,看起来我们离AGI只差两个东西,一是常识、二是LeCun的世界模型。

我很难看出LeCun最近的一連(lian)串(chuan)行动中到底有什么新东西,所以我昨天在Twitter上要求他解释。

到目前为止(zhi),他还没有回应。

參(can)考資(zi)料:

https://www.zdnet.com/article/metas-ai-guru-lecun-most-of-todays-ai-approaches-will-never-lead-to-true-intelligence/

https://garymarcus.substack.com/p/how-new-are-yann-lecuns-new-ideas?sd=pf返(fan)回搜(sou)狐(hu),查(zha)看更多

责任编辑:

发布于:浙江杭州上城区