揭秘东莞神话广告:隐藏背后的奇妙故事!

揭秘东莞神话广告:隐藏背后的奇妙故事!

现今,我们生活在信息爆炸的时代,网络上的新闻、广告和谣言多姿多彩,我们很难分辨真假。其中,东莞神话广告是近些年备受争议的话题,多方对这个神话广告提出不同的看法。但背后的故事往往被人们忽略,今天我将从四个方面详细阐述这个广告的故事。

广告故事的来历

东莞神话广告是在一家餐厅宣传用的,这家餐厅的名字叫做东莞神话餐厅。一位叫做黄勇的业主,在开店之初就遇到了许多困难。他尝试过各种方式宣传,但效果都不好。后来,他忽然想到了一个有趣的想法,这就是创作一个神话故事来宣传自己的餐厅。他的想法得到了员工的支持,因此我们才有了这个神话广告。

随着时间的推移,这则广告越来越出名,越来越多人开始在网上讨论它,这也让黄勇的餐厅逐渐变成了当地的网红餐厅。

广告故事的呈现方式

这则广告的故事非常有趣,呈现方式也与众不同。它是通过给顾客们提供一份菜单,上面附着着一个小册子,小册子上就是关于东莞神话的故事。这样的做法极富创意,也让人们能够边品尝美食边感受广告的魅力。

而这个故事的主人公名叫九头鸟,他是一个来自东莞的神话生物。据说,九头鸟喜欢吃各种美食,而他最喜欢的美食便是东莞神话餐厅的美食。

广告故事的效果与影响

这则广告非常成功,它的创意、有趣的故事和独特的呈现方式,让人们明显感受到了它所传达的信息。以至于这个广告的影响力逐渐扩散到了整个东莞。这也让黄勇的餐厅成为了当地的知名品牌。

同时,这个广告也被许多人模仿,许多餐厅、咖啡厅和商场也开始使用类似的广告手法来宣传自己的品牌。这也证明了这种广告的创意性和实用性。

广告故事的启示

这则广告背后的故事告诉我们,成功的广告必须要有独特的创意和有趣的故事。只有这样才能吸引人们的注意力,让他们记住你的品牌。同时,广告的呈现方式也非常重要,只有选用合适的方式,才能够让广告的效果最大化。

总结

通过对东莞神话广告背后的故事进行分析,我们发现这则广告成功的原因在于:有趣的故事、独特的创意和独特的呈现方式。同时,它也告诉我们成功的广告要有自己的特色和个性化,才能够突显出品牌的独特价值。

问答话题

问题一:东莞神话广告的创意来源是什么?

黄勇是东莞神话餐厅的业主,他在开店当初遇到了不少麻烦。最终,他决定创作一个神话故事来宣传自己的餐厅,因此有了东莞神话广告的诞生。

问题二:这则广告的效果和影响如何?

东莞神话广告吸引了众多人的关注,它的创意、有趣的故事和独特的呈现方式,让人们明显感受到了它所传达的信息。这个广告的影响力逐渐扩散到了整个东莞,成为当地知名品牌,并且被许多人模仿。

揭秘东莞神话广告:隐藏背后的奇妙故事!特色

1、驾驭神器,升星炼神,锻造强化增强战斗力;

2、随心所欲干自己想做的事情

3、支持多渠道导出作品;

4、夺城帮战比武大会掌门之争……更多挑战等你来体验!

5、推荐专业预约服务,既可靠又安全,为您提供大量模特信息

揭秘东莞神话广告:隐藏背后的奇妙故事!亮点

1、问卷,完成指定问卷,获得现金奖励。

2、快速的进行一个办理了

3、修改了一些问题,让app更稳定。

4、超真实酷炫击杀,pk更爽快更刺激

5、游戏画面精美温馨场景丰富

jiayushenqi,shengxinglianshen,duanzaoqianghuazengqiangzhandouli;suixinsuoyuganzijixiangzuodeshiqingzhichiduoqudaodaochuzuopin;duochengbangzhanbiwudahuizhangmenzhizheng……gengduotiaozhandengnilaitiyan!tuijianzhuanyeyuyuefuwu,jikekaoyouanquan,weinintigongdaliangmotexinxi不(bu)做(zuo)文(wen)盲(mang)畫(hua)家(jia)!谷(gu)歌(ge)魔(mo)改(gai)「文本(ben)編(bian)碼(ma)器(qi)」:壹(yi)個(ge)小(xiao)操(cao)作(zuo)讓(rang)圖(tu)像(xiang)生(sheng)成(cheng)模(mo)型(xing)學(xue)會(hui)「拼(pin)寫(xie)」

新(xin)智(zhi)元(yuan)報(bao)道(dao)

编輯(ji):LRS

【新智元導(dao)讀(du)】图像生成模型終(zhong)於(yu)学会了(le)拼写單(dan)詞(ci),秘(mi)訣(jue)竟(jing)是(shi)字(zi)符(fu)特(te)征(zheng)?

過(guo)去(qu)的(de)一年(nian)裏(li),隨(sui)著(zhe)DALL-E 2,Stable Diffusion等(deng)图像生成模型的發(fa)布(bu),text-to-image模型生成的图像在(zai)分(fen)辨(bian)率(lv)、質(zhi)量(liang)、文本忠(zhong)實(shi)度(du)等方(fang)面(mian)都(dou)得(de)到(dao)了飛(fei)躍(yue)性(xing)提(ti)升(sheng),極(ji)大(da)促(cu)進(jin)了下(xia)遊(you)應(ying)用(yong)場(chang)景(jing)的開(kai)发,人(ren)人都成了AI画家。

但(dan)相(xiang)關(guan)研(yan)究(jiu)表(biao)明(ming),目(mu)前(qian)的生成模型技(ji)術(shu)仍(reng)然(ran)存(cun)在一个重(zhong)大缺(que)陷(xian):無(wu)法(fa)在图像中(zhong)呈(cheng)現(xian)出(chu)可(ke)靠(kao)的視(shi)覺(jiao)文本。

有(you)研究結(jie)果(guo)表明,DALL-E 2在图片(pian)中生成連(lian)貫(guan)文本字符上(shang)非(fei)常(chang)不穩(wen)定(ding),而(er)最(zui)新发布的Stable Diffusion模型則(ze)是直(zhi)接(jie)將(jiang)「无法呈现可读的文本」列(lie)為(wei)已(yi)知(zhi)的限(xian)制(zhi)。

字符拼写錯(cuo)誤(wu):(1) California: All Dreams Welcome, (2) Canada: For Glowing Hearts, (3) Colorado: It’s Our Nature, (4) St. Louis: All Within Reach.

最近(jin)Google Research发布了一篇(pian)新論(lun)文,試(shi)图了解(jie)並(bing)提高(gao)图像生成模型渲(xuan)染(ran)高质量视觉文本的能(neng)力(li)。

论文鏈(lian)接:https://arxiv.org/abs/2212.10562

研究人員(yuan)認(ren)为當(dang)下的text-to-image生成模型模型存在文本渲染缺陷的主(zhu)要(yao)原(yuan)因(yin)是缺乏(fa)字符級(ji)的輸(shu)入(ru)特征。

为了量化(hua)該(gai)输入特征在模型生成中的影(ying)響(xiang),文章(zhang)中設(she)計(ji)了一系(xi)列控(kong)制实驗(yan)對(dui)是否(fou)包(bao)含(han)文本输入特征的文本编码器(character-aware和(he)character-blind)进行(xing)对比(bi)。

研究人员发现,在純(chun)文本領(ling)域(yu),character-aware模型在一个新的拼写任(ren)務(wu)(WikiSpell)上獲(huo)得了很(hen)大的性能收(shou)益(yi)。

将该經(jing)验遷(qian)移(yi)到视觉领域後(hou),研究人员訓(xun)練(lian)了一套(tao)图像生成模型。实验结果表明character-aware模型在一系列新的文本渲染任务(DrawText基(ji)準(zhun))中比character-blind更(geng)勝(sheng)一籌(chou)。

并且(qie)character-aware模型在视觉拼写方面達(da)到了更高的技术水(shui)平(ping),盡(jin)管(guan)训练的樣(yang)例(li)數(shu)量少(shao)得多(duo),其(qi)在不常見(jian)的单词上的准確(que)率仍然比競(jing)爭(zheng)模型高出30多个百(bai)分點(dian)。

Character-Aware模型

語(yu)言(yan)模型可分为直接訪(fang)問(wen)構(gou)成其文本输入字符的character-aware模型和无法访问的character-blind模型。

許(xu)多早(zao)期(qi)的神(shen)经语言模型直接在字符上进行操作,而不使(shi)用多字符的token作为標(biao)記(ji)。

后來(lai)的模型逐(zhu)漸(jian)轉(zhuan)向(xiang)基于词匯(hui)表的tokenization,其中一些(xie)模型如(ru)ELMo仍然保(bao)留(liu)了character-aware,但其他(ta)模型如BERT则放(fang)棄(qi)了字符特征以(yi)支(zhi)持(chi)更有效(xiao)的預(yu)训练。

目前,大多数廣(guang)泛(fan)使用的语言模型是character-blind的,依(yi)靠数據(ju)驅(qu)動(dong)的子(zi)词(subword)分割(ge)算(suan)法,如字節(jie)对编码(BPE)来生成子词pieces作为词汇表。

雖(sui)然這(zhe)些方法对于不常见的序(xu)列可以退(tui)回(hui)到字符级表示(shi),但它(ta)們(men)在设计上仍然会将常见的字符序列壓(ya)縮(suo)成不可分割的单元。

这篇论文的主要目的是试图了解并提高图像生成模型渲染高质量视觉文本的能力。

为此(ci),研究人员首(shou)先(xian)孤(gu)立(li)地(di)研究了当下文本编码器的拼写能力,從(cong)实验结果可以发现,尽管character-blind文本编码器很受(shou)歡(huan)迎(ying),但它们沒(mei)有收到关于其输入的字符级构成的直接信(xin)號(hao),导致(zhi)其拼写能力有限。

研究人员還(hai)測(ce)试了不同(tong)規(gui)模、架(jia)构、输入表示、语言和調(tiao)整(zheng)方法的文本编码器的拼写能力。

这篇论文首次(ci)记錄(lu)了character-blind模型通(tong)过網(wang)絡(luo)预训练誘(you)导出強(qiang)大的拼写知識(shi)(准确率>99%)的神奇(qi)能力,但实验结果表明这項(xiang)能力在英(ying)语之(zhi)外(wai)的语言中并没有得到很好(hao)的泛化,而且只(zhi)有在超(chao)过100B參(can)数的规模下才(cai)能实现,所(suo)以对于大多数应用场景是不可行的。

另(ling)一方面,character-aware的文本编码器能夠(gou)在更小的尺(chi)度上实现强大的拼写能力。

在将这些发现应用于图像生成场景時(shi),研究人员训练了一系列character-aware的文本到图像的模型,并證(zheng)明它们在现有的和新的文本渲染的評(ping)估(gu)中明顯(xian)優(you)于字符盲目的模型。

但对于纯字符级模型来說(shuo),虽然文本渲染的性能提升了,但对于不涉(she)及(ji)视觉文本的prompt,图像-文本对齊(qi)度则会下降(jiang)。

为了緩(huan)解这一问題(ti),研究人员建(jian)議(yi)将字符级和token级的输入表征结合(he)起(qi)来,从而可以实现最佳(jia)的性能。

WikiSpell基准

由(you)于文本到图像的生成模型依賴(lai)于文本编码器来產(chan)生用于解码的表征,研究人员首先从Wiktionary中采(cai)样一些单词創(chuang)建了WikiSpell基准,然后基于此数据集(ji)在一个纯文本的拼写评估任务来探(tan)索(suo)文本编码器的能力。

对于WikiSpell中的每(mei)个样例,模型的输入是一个单词,预期的输出是它的具(ju)體(ti)拼写(通过在每个Unicode字符之間(jian)插(cha)入空(kong)格(ge)来生成)。

由于该文章僅(jin)对研究一个词的頻(pin)率和模型的拼写能力之间的关系感(gan)興(xing)趣(qu),所以研究人员根(gen)据单词在mC4语料(liao)庫(ku)中出现的频率,将Wiktionary中的词分成五(wu)个互(hu)不重疊(die)的桶(tong):最频繁(fan)的前1%的词,最频繁的1-10%的词,10-20%的词,20-30%的词,以及最低(di)的50%的词(包括(kuo)在语料库中从未(wei)出现过的词)。

然后从每个桶中均(jun)勻(yun)地抽(chou)取(qu)1000个词来创建一个测试集(以及一个類(lei)似(si)的开发集)。

最后通过结合兩(liang)部(bu)分建立了一个由10,000个词組(zu)成的训练集:5,000个从最底(di)層(ceng)的50%桶(最不常见的词)中統(tong)一取样,另外5,000个根据它们在mC4中的频率按(an)比例取样(从而使这一半(ban)的训练集偏(pian)向频繁的词)。

研究人员将任何(he)被(bei)選(xuan)入开发集或(huo)测试集的词排(pai)除(chu)在训练集之外,因此评估结果總(zong)是針(zhen)对被排除的词。

除了英语外,研究人员还对其他六(liu)種(zhong)语言(阿(e)拉(la)伯(bo)语、漢(han)语、芬(fen)蘭(lan)语、韓(han)语、俄(e)语、泰(tai)语)进行评估,选擇(ze)这些语言是为了涵(han)蓋(gai)影响模型学習(xi)拼写能力的各(ge)种特性,对每一种语言的评估都重復(fu)上述(shu)数据集构建过程(cheng)。

文本生成实验

研究人员使用WikiSpell基准来评估多种预训练的纯文本模型在不同规模上的表现,包括T5(一个在英语数据上预训练的character-blind编码解码器模型);mT5(與(yu)T5类似,但在超过100种语言上预训练);ByT5(mT5的character-aware版(ban)本,直接在UTF-8字节序列上操作);以及PaLM(一个规模更大的解码模型,主要是在英语上预训练的)。

在纯英语和多语言的实验结果中,可以发现character-blind模型T5和mT5在包含Top-1%最频繁词汇的桶上的表现要差(cha)很多。

这个结果似乎(hu)是反(fan)直觉的,因为模型通常在数据中频繁出现的例子上表现最好,但是由于subword词汇的训练方式(shi),频繁出现的词通常被表示为一个单一的原子标记(或少量的标记),事(shi)实上也(ye)是如此:在英语前1%的桶中,87%的词被T5的词汇表示为一个子词标记。

因此,較(jiao)低的拼写准确性分数表明,T5的编码器没有保留足(zu)够的关于其词汇中subword的拼写信息(xi)。

其次,对于character-blind模型,规模是影响拼写能力的一个重要因素(su)。T5和mT5都随着规模的增(zeng)加(jia)而逐渐變(bian)好,但即(ji)使在XXL规模下,这些模型也没有表现出特別(bie)强的拼写能力。

只有当character-blind模型达到PaLM的规模时,才开始(shi)看(kan)到近乎完(wan)美(mei)的拼写能力:540B参数的PaLM模型在英语的所有频率桶中都达到了>99%的准确率,尽管它在提示中只看到20个例子(而T5显示的是1000个微(wei)调例子)。

然而,PaLM在其他语言上的表现较差,可能是由于这些语言的预训练数据少得多。

对ByT5的实验表明,character-aware模型表现出更强大的拼写能力。ByT5在Base和Large尺寸(cun)下的表现仅略(lve)微落(luo)后于XL和XXL(尽管仍然至(zhi)少在90%的範(fan)圍(wei)內(nei)),而且一个词的频率似乎对ByT5的拼写能力没有太(tai)大影响。

ByT5的拼写性能遠(yuan)远超过了(m)T5的结果,甚(shen)至与参数多于100倍(bei)的PaLM的英语表现相当,并且超过了PaLM在其他语言上的表现。

从而可知ByT5编码器保留了相当多的字符级信息,而且这些信息可以根据解码任务的需(xu)要从这些凍(dong)结的参数中檢(jian)索出来。

DrawText基准

从2014年发布的COCO数据集到2022年的DrawBench基准,从FID, CLIP得分到人类偏好等指(zhi)标,如何评估text-to-image模型一直是一个重要的研究課(ke)题。

但目前在文本渲染和拼写评估方面一直缺乏相关工(gong)作。

为此,研究人员提出了一个新的基准DrawText,旨(zhi)在全(quan)面衡(heng)量文本到图像模型的文本渲染质量。

DrawText基准由两部分组成,分别测量模型能力的不同維(wei)度:

1)DrawText Spell,通过大量的英语单词集合的普(pu)通单词渲染进行评估;

研究人员从英语WikiSpell频率桶中各抽取100个单词,并将它们插入一个标准模板(ban)中,总共(gong)构建了500个提示。

2)DrawText Creative,通过视觉效果的文本渲染进行评估。

视觉文本并不局(ju)限于像街(jie)道标誌(zhi)那(na)样的常见场景,文字可以以多种形(xing)式出现,如潦(liao)草(cao)的、繪(hui)画的、雕(diao)刻(ke)的、雕塑(su)的,等等。

如果图像生成模型支持靈(ling)活(huo)而准确的文本渲染,这将使设计師(shi)能够使用这些模型来开发创造(zao)性的字体、标志、布局等等。

为了测试图像生成模型支持这些用例的能力,研究人员与一位(wei)專(zhuan)業(ye)的图形设计师合作,构建了175个不同的提示,要求(qiu)在一系列创造性的風(feng)格和设置(zhi)中渲染文本。

许多提示超出了当前模型的能力,最先进的模型会表现出拼写错误、丟(diu)弃或重复的单词。

图像生成实验

实验结果显示,用于对比的9个图像生成模型中在DrawText Spell基准上的准确率中,character-aware模型(ByT5和Concat)无论模型尺寸大小都优于其他模型,特别是在不常见单词上。

Imagen-AR显示了避(bi)免(mian)cropping的好處(chu),尽管训练时间長(chang)了6.6倍,其仍然比字character-aware模型表现差。

模型之间的另一个明显的區(qu)别在于它们是否在多个样本中持續(xu)地拼错一个給(gei)定的单词。

在实验结果中可以看出,无论抽取多少个样本,T5模型都有很多单词拼错,研究人员认为这表明文本编码器中缺少字符知识。

相比之下,ByT5模型基本只会出现零(ling)星(xing)的错误。

通过测量模型在所有四(si)个图像样本中持续正(zheng)确(4/4)或持续错误(0/4)的比率可以量化这一觀(guan)察(cha)结果。

可以看到一个鮮(xian)明的对比,特别是在常见的词上(前1%),即ByT5模型从未持续错误,而T5模型在10%或更多的词上持续错误。

参考(kao)資(zi)料:

https://arxiv.org/abs/2212.10562返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:广西崇左大新县