麦当劳创意广告

麦当劳创意广告:突破传统的思维方式

麦当劳是世界上最受欢迎的快餐品牌之一。自从创建以来,麦当劳一直在不断创新,以吸引消费者的眼球。其中之一就是麦当劳的创意广告。作为一名有经验的销售人员和熟练的SEO中文内容写手,我注意到麦当劳的广告非常独特,它们能够吸引消费者的注意力。在本篇博客中,我将探讨麦当劳创意广告的秘密,并介绍这些广告是如何突破传统的思维方式的。

一张汉堡图片

麦当劳的创意广告有很多种。其中一种被称为“互动广告”。这种广告不仅仅是传递信息,更是与消费者进行直接的互动。例如,麦当劳在巴西推出了一款名为“Create Your Taste”的汉堡,消费者可以在麦当劳的网站上自定义他们的汉堡。这种互动广告不仅可以提高消费者的参与度,还可以增加他们对麦当劳品牌的好感度。

一张薯条图片

除了互动广告,麦当劳还采用了一种独特的广告形式,即“非广告广告”。这种广告的目的是将品牌融入到消费者生活的方方面面,而不是直接向他们展示产品。例如,麦当劳在法国推出了一款名为“McDrive”的广告系列。这些广告展示了司机在开车的过程中如何享受麦当劳的食品。通过这种方式,消费者会对麦当劳品牌产生更加深刻的印象。

麦当劳创意广告:通过情感共鸣赢得消费者的心

麦当劳的广告不仅仅是产品的展示,更是与消费者情感共鸣的体现。例如,麦当劳在菲律宾推出一款名为“Tuloy Pa Rin”的广告,这个广告讲述了一个孩子在麦当劳门口唱歌,引起了顾客们的注意。这个故事非常感人,消费者一看就会对麦当劳产生好感,也会因为这个广告而愿意在麦当劳消费。

一张麦当劳图片

麦当劳的广告还能够引起消费者的共鸣,因为它们关注社会问题。例如,麦当劳在德国推出了一款名为“来自土地”的广告系列。这些广告展示了德国的土地上有多少动物和植物是受到威胁的。麦当劳通过这种方式让消费者意识到环境问题的严重性,并承诺采取行动来保护环境。这种广告不仅可以提高消费者对麦当劳的好感度,还可以让他们对品牌的社会责任感产生认同感。

结论

总之,麦当劳的创意广告是如何突破传统的思维方式的呢?它们采用了互动广告和非广告广告,通过情感共鸣赢得了消费者的心。这些广告不仅仅是产品的展示,更是与消费者进行直接互动和产生情感联系的方式。这些广告不追求最大、最好、最优惠等类似单词,而是突出品牌的特点,让消费者产生认同感。通过这些广告,麦当劳成功地塑造了自己的品牌形象,并赢得了消费者的喜爱。

一张麦当劳图片

麦当劳创意广告特色

1、幻想纹章手游

2、可设置时间设置截屏时间截屏信息,打造优质截屏体验;

3、霸者归来高热游戏下载

4、给大家呈现出来这些关卡都是非常全新的,而且里面的内容都是你想都想不到的。

5、护眼模式夜间模式亮度自适应极简模式字体大小多样独特的阅读页主题,每一个阅读姿势都舒服;

麦当劳创意广告亮点

1、各种奇思妙想的脑洞关卡,简直令人防不胜防,需要不断努力练习。

2、五颜六色的塞到可以说非常的显眼,不是还有特效光芒出现,惊喜会很多;

3、大量基本功能,尽在开阔慧云作用不断提升

4、根据西游记改编的经典回合制游戏

5、让你返回石器时代,去感受那个特色的原始森林世界,通过自己的不懈努力在这样一个危险的世界生存下去

huanxiangwenzhangshouyoukeshezhishijianshezhijiepingshijianjiepingxinxi,dazaoyouzhijiepingtiyan;bazheguilaigaoreyouxixiazaigeidajiachengxianchulaizhexieguankadoushifeichangquanxinde,erqielimiandeneirongdoushinixiangdouxiangbudaode。huyanmoshiyejianmoshiliangduzishiyingjijianmoshizitidaxiaoduoyangdutedeyueduyezhuti,meiyigeyueduzishidoushufu;稀(xi)疏(shu)模(mo)型(xing)最(zui)新(xin)進(jin)展(zhan)!馬(ma)毅(yi)+LeCun強(qiang)强聯(lian)手(shou):「白(bai)盒(he)」非(fei)監(jian)督(du)式(shi)學(xue)習(xi)|ICLR 2023

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】白盒非监督学习模型性(xing)能(neng)再(zai)进壹(yi)步(bu)!

最近(jin)马毅教(jiao)授(shou)和(he)圖(tu)靈(ling)獎(jiang)得(de)主(zhu)Yann LeCun联手在(zai)ICLR 2023上(shang)發(fa)表(biao)了(le)一篇(pian)論(lun)文(wen),描(miao)述(shu)了一種(zhong)極(ji)簡(jian)和可(ke)解(jie)釋(shi)的(de)非监督式学习方(fang)法(fa),不(bu)需(xu)要(yao)求(qiu)助(zhu)於(yu)數(shu)據(ju)增(zeng)强、超(chao)參(can)数調(tiao)整(zheng)或(huo)其(qi)他(ta)工(gong)程(cheng)設(she)計(ji),就(jiu)可以(yi)實(shi)現(xian)接(jie)近 SOTA SSL 方法的性能。

论文鏈(lian)接:https://arxiv.org/abs/2209.15261

該(gai)方法利(li)用(yong)了稀疏流(liu)形(xing)變(bian)換(huan),將(jiang)稀疏编碼(ma)、流形学习和慢(man)特(te)征(zheng)分(fen)析(xi)(slow feature analysis)相(xiang)結(jie)合(he)。

采(cai)用單(dan)層(ceng)確(que)定(ding)性稀疏流形变换,在 MNIST 上可以達(da)到(dao)99.3% 的 KNN top-1精(jing)度(du),在 CIFAR-10上可以达到81.1% 的 KNN top-1精度,在 CIFAR-100上可以达到53.2% 的 KNN top-1精度。

通(tong)過(guo)简单的灰(hui)度增强,模型在 CIFAR-10和 CIFAR-100上的精度分別(bie)达到83.2% 和57% ,這(zhe)些(xie)结果(guo)顯(xian)著(zhu)地(di)縮(suo)小(xiao)了简单的「白盒」方法和 SOTA 方法之(zhi)間(jian)的差(cha)距(ju)。

此(ci)外(wai),文中(zhong)還(hai)提(ti)供(gong)了可視(shi)化(hua)解释如(ru)何(he)形成(cheng)一個(ge)無(wu)监督的表征变换。该方法與(yu)潛(qian)在嵌(qian)入(ru)自(zi)监督方法密(mi)切(qie)相關(guan),可以看(kan)作(zuo)是(shi)最简单的 VICReg 方法。

盡(jin)管(guan)在我(wo)們(men)简单的建(jian)设性模型和 SOTA 方法之间仍(reng)然(ran)存(cun)在很(hen)小的性能差距,但(dan)有(you)證(zheng)据表明(ming),这是一个有希(xi)望(wang)的方向(xiang),可以实现一个原(yuan)則(ze)性的、白盒式的非监督式学习。

文章(zhang)第(di)一作者(zhe)Yubei Chen是紐(niu)約(yue)大(da)学数据科(ke)学中心(xin)(CDS)和Meta基(ji)礎(chu)人(ren)工智能研(yan)究(jiu)(FAIR)的博(bo)士(shi)後(hou)助理(li),导師(shi)為(wei)Yann LeCun教授,博士畢(bi)業(ye)于加(jia)州(zhou)大学伯(bo)克(ke)利分校(xiao)的Redwood Center理论神(shen)經(jing)科学和伯克利人工智能研究所(suo)(BAIR),本(ben)科毕业于清(qing)華(hua)大学。

主要研究方向研究为计算(suan)神经科学学习和深(shen)度无监督(自监督)学习的交(jiao)叉(cha),研究结果增强了對(dui)大腦(nao)和機(ji)器(qi)无监督表征学习的计算原理的理解,並(bing)重(zhong)塑(su)对自然信(xin)號(hao)統(tong)计的認(ren)識(shi)。

马毅教授于1995年(nian)獲(huo)得清华大学自動(dong)化与應(ying)用数学雙(shuang)学士学位(wei),并于1997年获加州大学伯克利分校EECS碩(shuo)士学位,2000年获数学硕士学位与EECS博士学位。目(mu)前(qian)是加州大学伯克利分校電(dian)子(zi)工程与计算机科学系(xi)教授,同(tong)時(shi)也(ye)是IEEE Fellow,ACM Fellow,SIAM Fellow。

Yann LeCun最著名(ming)的工作是在光(guang)学字(zi)符(fu)识别和计算机视覺(jiao)上使(shi)用卷(juan)積(ji)神经網(wang)絡(luo)(CNN),也被(bei)稱(cheng)为卷积网络之父(fu);2019年他同Bengio以及(ji)Hinton共(gong)同获得计算机学界(jie)最高(gao)奖項(xiang)图灵奖。

從(cong)最简单的无监督学习開(kai)始(shi)

在过去(qu)的幾(ji)年裏(li),无监督表征学习取(qu)得了巨(ju)大的进展,并且(qie)有望在数据驅(qu)动的机器学习中提供强大的可擴(kuo)展性。

不过什(shen)麽(me)是学习到的表征,以及它(ta)究竟(jing)是如何以无监督的方式形成的,这些問(wen)題(ti)仍然不清楚(chu);此外,是否(fou)存在一套(tao)支(zhi)撐(cheng)所有这些无监督表征的共同原则仍不清楚。

許(xu)多(duo)研究者已(yi)经意(yi)识到提高模型理解力(li)的重要性,并采取了一些开創(chuang)性的措(cuo)施(shi),試(shi)图简化SOTA方法,建立(li)与经典(dian)方法之间的联系,统一不同的方法,使表征可视化,并从理论角(jiao)度分析这些方法,并希望能夠(gou)开发出(chu)一种不同的计算理论:使我们能够基于第一原理从数据中建立简单的、完(wan)全(quan)可以解释的「白盒」模型,该理论也可以为理解人脑中无监督学习的原则提供指(zhi)导。

在这项工作中,研究人員(yuan)又(you)朝(chao)著(zhe)这个目標(biao)邁(mai)出了一小步,试图建立一个最简单的 「白盒」无监督学习模型,并且不需要深度网络、projection heads、数据增强或其他各(ge)种工程设计。

文中通过利用兩(liang)个经典的无监督学习原则,即(ji)稀疏性(sparsity)和頻(pin)譜(pu)嵌入(spectral embedding),建立了一个两层模型,在几个标準(zhun)数据集(ji)上取得了非显著的基准结果。

实驗(yan)结果表明,基于稀疏流形变换(sparse manifold transform)的两层模型,与latent-embedding自监督方法具(ju)有相同的objective,并且在沒(mei)有任(ren)何数据增强的情(qing)況(kuang)下(xia),在MNIST上取得了99.3%的KNN最高1級(ji)准确率(lv),在CIFAR-10上取得了81.1%的KNN最高1级准确率,在CIFAR-100上取得了53.2%的准确率。

通过简单的灰度增强,进一步在CIFAR-10上实现了83.2%的KNN top-1精度,在CIFAR-100上实现了57%的KNN top-1精度。

这些结果为缩小「白盒」模型和SOTA自监督(SSL)模型之间的差距迈出了重要一步,雖(sui)然差距仍然很明显,但研究人员认为进一步缩小差距有可能对无监督表征的学习获得更(geng)深入的理解,这也是通往(wang)该理论实用化的一條(tiao)有前景(jing)的研究路(lu)線(xian)。

三(san)个基本问题

什么是无监督(自监督)的re-presentation

从本質(zhi)上講(jiang),原始信号的任何非同一性轉(zhuan)换(non-identity transformation)都(dou)可以被称为表征(re-presentation),不过学術(shu)界更感(gan)興(xing)趣(qu)的是那(na)些有用的转换。

无监督re-presentation学习的一个宏(hong)觀(guan)目标是找(zhao)到一个函(han)数,将原始数据转换到一个新的空(kong)间,使「相似(si)」的東(dong)西(xi)被放(fang)在更接近的地方;同时,新的空间不应该是一个collapsed且trivial的,也就是說(shuo),必(bi)須(xu)保(bao)留(liu)数据的几何或隨(sui)机结構(gou)。

如果这一目标得以实现,那么「不相似」的內(nei)容(rong)自然會(hui)在表示(shi)空间中被放置(zhi)得很遠(yuan)。

相似性(similarity)从何而(er)來(lai)?

相似性主要来自三个经典的想(xiang)法:1)时序(xu)共现,2)空间共现;和3)原始信号空间中的局(ju)部(bu)相鄰(lin)(local neighborhoods)。

當(dang)基础结构为几何结构时,这些想法在相当程度上是重疊(die)的;但当结构为随机结构时,它们在概(gai)念(nian)上也会有所不同,下图展现了流形结构(manifold structure)和随机共现结构(stochastic co-occurrence structure.)之间的區(qu)别。

利用局部性,相关工作提出了两种无监督的学习方法:流形学习和共现统计建模,这些想法很多都达到了谱系分解的表述或密切相关的矩(ju)陣(zhen)分解表述。

流形学习的理念是,只(zhi)有原始信号空间中的局部邻域(yu)才(cai)是可信的,通过綜(zong)合考(kao)慮(lv)所有的局部邻域,就会出现全局几何,即「全局思(si)考,局部適(shi)配(pei)」(think globally, fit locally)。

相比(bi)之下,共现统计建模遵(zun)循(xun)一种概率理念,因(yin)为有些结构不能用連(lian)續(xu)流形来建模,所以它也是对流形理念的補(bu)充(chong)。

一个最明显的例(li)子来自于自然語(yu)言(yan),其中的原始数据基本不会来自于平(ping)滑(hua)的几何,比如在单詞(ci)嵌入中,「西雅(ya)图」和「达拉(la)斯(si)」的嵌入可能很相似,尽管它们并没有频繁(fan)共现,其根(gen)本原因是它们有類(lei)似的上下文模式。

概率和流形的观點(dian)对于理解「相似性」是相互(hu)补充的 ,当有了相似性的定義(yi)后,就可以构造(zao)一个转换,使得相似的概念離(li)得更近。

本文如何建立表征转换?基本原则:稀疏性和低(di)秩(zhi)(low rank)

大體(ti)上来说,可以用稀疏性来處(chu)理数据空间中的局部性和分解,以建立support;然后用低频函数构建表征变换,将相似的值(zhi)分配給(gei)support上的相似点。

整个过程也可以称为稀疏流形变换(sparse manifold transform)。

参考資(zi)料(liao):

https://arxiv.org/abs/2209.15261返(fan)回(hui)搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:青海西宁大通回族土族自治县