搞怪创意!国外啤酒广告文案收集 (Catchy and Creative! Collection of Foreign Beer Advertisement Copywriting)

搞怪创意!国外啤酒广告文案收集

什么是啤酒广告?

啤酒广告是指在电视、广播、报纸、杂志、互联网等媒体上,通过品牌信息、产品特点、活动推广、搞笑元素、创意场景等手段展示产品形象和企业形象的广告。啤酒广告通常采用搞笑、幽默、创意的手法,吸引观众关注度,营造品牌氛围,提升销售水平。啤酒广告是一种充满创造力和艺术感的广告,它要让消费者对某一品牌产生好感,从而达到品牌忠诚度的提高,提高销量的效果。啤酒广告语的设计不仅是要符合产品的文化气质,也要吸引目标消费者的眼球,所以有时候会使用一些搞怪、幽默的广告语。

国外啤酒广告的特点和创意

国外啤酒广告语通常都具有独特的创意和风格。比如说,联邦快递就曾经推出过一款广告,它的广告语是:我们向中国大陆运送货物所花费的时间不到半个小时,虽然这听上去很不可思议,但是我们不建议您亲自尝试。这句话就采用了一种幽默、生动的手法,形象地描述了联邦快递在中国大陆的快速配送服务,吸引了众多消费者的关注。同样的,国外啤酒广告语也注重创意和幽默感。比如说,可口可乐公司的广告语是:生活中永远有经典,而你应该选择可口可乐,这样的广告语不仅吸引了消费者的眼球,也让他们感受到了产品的高质量和文化氛围。

国外啤酒广告语的表现形式

国外啤酒广告语的表现形式很多,比如说,有的采用了漫画形式,有的则用图片加文字的形式表现。在啤酒广告语中,除了对产品特点的表达外,还会加入一些搞笑、幽默的元素。这些元素既可以呈现在广告语陈述的背景下,也可以是通过一些形象的动作、语言和场景来表达。

国外啤酒广告语的表现方式

国外啤酒广告语的表现方式多种多样,例如可口可乐公司的广告语,生活中永远有经典,而你应该选择可口可乐,采用的是一种简洁明了的表达方式,通过这句话让人们感受到品牌的文化氛围和品质保证。而在某些啤酒广告里,使用了一些搞笑、幽默的元素。比如说,可乐公司最新推出的一款广告,广告语是:只有可口可乐才能让你把世界紧紧拥抱。这句话不仅表现出了可口可乐品牌的活力和青春感,并且通过幽默和搞笑,引起了消费者的共鸣。

国外啤酒广告语的适用范围

国外啤酒广告语在适用范围上非常广泛。一方面,它可以用于产品推广,传达产品的品质和特点,吸引消费者的关注和购买欲望。另一方面,它也可以用于品牌建设,展示企业形象和文化氛围,提升消费者的品牌忠诚度。

国外啤酒广告语在品牌建设中的应用

在品牌建设中,国外啤酒广告语的应用非常广泛。比如说,可口可乐公司的广告语:生命中永远有经典,而你应该选择可口可乐,用简单、生动的文字表现出了品牌的文化气质和品质保证。另外,国外啤酒广告语也可以用于产品推广,比如说,某啤酒公司的广告语是:这是一种绝妙的啤酒,口感独特,香气扑鼻,这句话既传达了产品的特点和质量,同时也吸引了消费者的购买欲望。

国外啤酒广告语在中国的营销实践

国外啤酒广告语在中国的营销实践中,也取得了一定的成绩。由于国外啤酒广告语具有原创性和创新性,通过营销策略的合理运用,可以吸引目标消费者的关注和购买欲望,从而提高销售水平。

国外啤酒广告语在中国营销中的创新

在中国营销中,国外啤酒广告语的创新性表现在其采用的营销策略。它可以通过电视广告、互联网广告、微信营销等多种渠道进行推广,让消费者感受到品牌的文化魅力和产品的优势特点。同时,它也可以通过社交媒体、微博博客、微信公众号等途径,在新媒体时代扩大品牌影响力,吸引更多消费者的关注。

总结

作为一种广告形式,啤酒广告语在国外拥有较高的创造力和艺术感,它可以通过幽默、搞笑、创意的手法吸引消费者的关注度,提升产品和品牌的知名度和销售水平。国外啤酒广告语目前已经在中国营销实践中取得了一定的成绩,通过营销策略的合理运用,可以吸引目标消费者的关注和购买欲望,从而提高销售水平。

搞怪创意!国外啤酒广告文案收集 (Catchy and Creative! Collection of Foreign Beer Advertisement Copywriting)特色

1、升级您的力量!

2、由专业字体设计师设计的独特签名,使用起来也非常方便。

3、英雄可以升级,装备可以合成和升级。是一个有养成的数学类弹球小游戏

4、十分有趣的各种关卡,随机配对机制,你们会去各种各样的关卡中游玩。

5、精灵女王首先精灵们奋起反抗,有时短暂的击退了恶龙,却也损失惨重。

搞怪创意!国外啤酒广告文案收集 (Catchy and Creative! Collection of Foreign Beer Advertisement Copywriting)亮点

1、收录了各种梗相关的语音

2、推动传统媒体和新兴媒体互补互融。

3、提供细致的美食制造步骤和技巧,更有细致步骤的图文详解,

4、不需要网络也能平稳的运行,在地铁上也能享受消除的乐趣。

5、上百名专业的老师为你解答所有的疑问,学习就是这么的轻松。

shengjinindeliliang!youzhuanyezitishejishishejideduteqianming,shiyongqilaiyefeichangfangbian。yingxiongkeyishengji,zhuangbeikeyihechengheshengji。shiyigeyouyangchengdeshuxueleidanqiuxiaoyouxishifenyouqudegezhongguanka,suijipeiduijizhi,nimenhuiqugezhonggeyangdeguankazhongyouwan。jinglingnvwangshouxianjinglingmenfenqifankang,youshiduanzandejituileelong,queyesunshicanzhong。擴(kuo)散(san)模(mo)型(xing)在(zai)文(wen)本(ben)生(sheng)成(cheng)領(ling)域(yu)的(de)應(ying)用(yong)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

來(lai)源(yuan):知(zhi)乎(hu)

編(bian)輯(ji):桃(tao)子(zi)

【新智元導(dao)讀(du)】扩散模型在文本生成领域的应用有(you)哪(na)些(xie)?本文就(jiu)3篇(pian)論(lun)文展(zhan)開(kai)解(jie)读。

本文主(zhu)要(yao)討(tao)论以(yi)下(xia)幾(ji)篇论文

Structured Denoising Diffusion Models in Discrete State-Spaces(D3PM)

Diffusion-LM Improves Controllable Text Generation

Composable Text Control Operations in Latent Space with Ordinary Differential Equations

Structured Denoising Diffusion Models in Discrete State-Spaces(D3PM)

在近(jin)期(qi)北(bei)大(da)出(chu)的壹(yi)篇綜(zong)述(shu)裏(li)看(kan)到(dao)扩散模型對(dui)文本生成的应用的章(zhang)節(jie)里提(ti)到了(le)D3PM,就去(qu)看了看這(zhe)篇论文。實(shi)質(zhi)上(shang)參(can)考(kao)意(yi)義(yi)非(fei)常(chang)有限(xian),僅(jin)粗(cu)读了一遍(bian)在此(ci)簡(jian)單(dan)記(ji)錄(lu)一下。

D3PM筆(bi)者(zhe)認(ren)為(wei)最(zui)大的亮(liang)點(dian)在於(yu)泛(fan)化(hua)了扩散過(guo)程(cheng)里的扩散方(fang)式(shi)。還(hai)记得(de)在大一統(tong)視(shi)角(jiao)理(li)解扩散模型里,笔者復(fu)述了扩散模型的變(bian)分(fen)推(tui)导过程,其(qi)中(zhong)推导到最終(zhong)將(jiang)得到以下主要優(you)化的損(sun)失(shi)函(han)數(shu)。

扩散模型里的去噪(zao)匹(pi)配(pei)項(xiang)

而(er)具(ju)體(ti)怎(zen)麽(me)优化該(gai)损失函数,主要应用的是(shi)扩散模型里每(mei)一步(bu)加(jia)噪都(dou)是加高(gao)斯(si)噪聲(sheng)的性(xing)质,使(shi)得最终该函数里的每一项都可(ke)求(qiu)得具体的解析(xi)表(biao)達(da)式。但(dan)应用了高斯分布(bu)加噪主要是因(yin)为扩散模型主要針(zhen)对圖(tu)像(xiang)或(huo)者波(bo)形(xing)的生成,那(na)么如(ru)果(guo)要将扩散过程加入(ru)到離(li)散的变量(liang)里,是否(fou)可以用不(bu)同(tong)的加噪方式?论文指(zhi)出,主要要滿(man)足(zu)以下兩(liang)点:

该加噪方式应使得xt從(cong)q(xt|x0)中的采(cai)樣(yang)方便(bian)快(kuai)捷(jie)。使得我(wo)們(men)能(neng)夠(gou)对以上的去噪匹配项里的L_t-1在任(ren)意時(shi)間(jian)步上方便計(ji)算(suan)。

同时该加噪方式应使得q(xt-1| xt, x0)有方便计算的解析形式,使得我们计算去噪匹配项的KL散度(du)成为可能。

很(hen)明(ming)顯(xian),高斯噪声完(wan)美(mei)符(fu)合(he)以上两個(ge)要求。而作(zuo)者則(ze)提出了对于离散变量的加噪方式。具体的数理推导笔者按(an)下不表,但简单来說(shuo)就是定(ding)义了一系(xi)列(lie)轉(zhuan)移(yi)矩(ju)陣(zhen)。其中關(guan)于文本生成的转移矩阵的特(te)点在于基(ji)于概(gai)率(lv)在不同时间步将一个离散詞(ci)转为MASK 字(zi)符或者保(bao)持(chi)不变。

D3PM在文本生成上的扩散过程

笔者看到这里的时候(hou),發(fa)現(xian)这个形式和(he)笔者之(zhi)前(qian)調(tiao)研(yan)的非自(zi)回(hui)歸(gui)式生成里的CMLM特別(bie)相(xiang)像。感(gan)興(xing)趣(qu)的读者可以看看。如果是類(lei)似(si)该架(jia)構(gou)的扩散的話(hua),笔者认为该扩散模型的实现方式在語(yu)言(yan)质量上仍(reng)難(nan)談(tan)优秀(xiu)。CMLM类的非自回归模型,在文本生成质量上的確(que)难以匹敵(di)自回归式的生成模型。在逐(zhu)漸(jian)去噪的过程中逐步确定生成词的方式,实際(ji)上和CMLM的做(zuo)法(fa)沒(mei)有太(tai)大本质區(qu)别。笔者认为对比(bi)CMLM不太可能有质的提升(sheng)。

Diffusion-LM Improves Controllable Text Generation

相比于D3PM,这篇论文的主要創(chuang)新点在于定义了一个词嵌(qian)入的方程统一了扩散过程里离散到連(lian)續(xu)的狀(zhuang)態(tai)。我们可以看到D3PM本质上的扩散是在离散序(xu)列上做的。但是Diffusion-LM的具体做法是前向(xiang)时离散的字词首(shou)先(xian)通(tong)过词嵌入转为一系列连续的潛(qian)在向量。之後(hou)对每个连续向量不斷(duan)加高斯噪声進(jin)行(xing)前向扩散。后向时不断去噪並(bing)且(qie)最终将每个潜在向量量化到一个距(ju)离最近的词嵌入上。具体来说前向时从离散的词序列w到x0的过程为:

Emb为词嵌入方程,前向为从离散到连续

反(fan)向去噪到x0后,则要对每个潜在向量求一个距离最近的离散词。和生成过程中的解碼(ma)类似,用softmax即(ji)可。

后向为从连续到离散

在大一统视角理解扩散模型里,论文作者解釋(shi)了扩散模型的不同解读最终可以看做其变分下界(jie)里的去噪匹配项里对每一个时间步的潜在向量均(jun)值(zhi)mu_q的不同变形。其具体形式如下:

扩散模型的变分下界的最主要优化项的等(deng)價(jia)形式

而在将扩散模型应用到文本生成领域以后,因为多(duo)出的词嵌入的关系,作者在该基礎(chu)上增(zeng)添(tian)了两项词嵌入的优化:

多出的两项都和词嵌入直(zhi)接(jie)相关

在大一统视角理解扩散模型里,论文作者提到不同的扩散模型对每一时间步的均值的估(gu)计可以拆(chai)解成三(san)種(zhong)不同的解法。DDPM里是直接对噪声进行預(yu)測(ce),而作者lisa发现如果直接预测噪声會(hui)导致(zhi)最终去噪后的結(jie)果不对应任何(he)词嵌入。为了解決(jue)这个問(wen)題(ti)作者改(gai)为使用三种解法里的第(di)一种,即直接预测初(chu)始(shi)輸(shu)入x0。

每一步的优化目(mu)標(biao)其中之一是直接预测初始输入

基于从连续到离散难以对应的这个觀(guan)察(cha),作者还进一步提出了在解码做下遊(you)推断的时候,用clamp的方法把(ba)每一次(ci)f_theta预测出的初始输入“夾(jia)”到一个对应的词嵌入上后,再(zai)繼(ji)续去噪。并宣(xuan)稱(cheng)这样可以讓(rang)预测更(geng)準(zhun)确,減(jian)少(shao)rounding error。

當(dang)然(ran)这篇论文主要在讨论條(tiao)件(jian)生成这件事(shi)。从论文标题也(ye)可以看出。具体在条件生成上,作者用的是SongYang博(bo)士(shi)的Score-matching的角度用貝(bei)葉(ye)斯法则做的推导:

将条件生成拆解为两项

其中第二(er)项是个需(xu)要单獨(du)訓(xun)練(lian)的分类器(qi),其分类的梯(ti)度score用来更新扩散的输出。其中作者每一步扩散的时候都使用了多次梯度更新计算(3次adagrad),为了加速(su)解码作者将扩散步数T由(you)2000步下降(jiang)为200步。

至(zhi)此这篇论文的核(he)心(xin)要点笔者认为已(yi)經(jing)梳(shu)理完成。但笔者对这篇论文有几点质疑(yi)。

作者提到该扩散模型的速度比自回归式的预训练模型慢(man)了7倍(bei)。但笔者試(shi)跑(pao)了一下作者代(dai)码发现,用transformer做初始词的誤(wu)差(cha)估计,并且做200次去噪过程。实际生成一个句(ju)子在A100显卡(ka)上要花(hua)4-5分鐘(zhong),是自回归式生成类似長(chang)度的句子所(suo)耗(hao)时间的数十(shi)倍。

作者給(gei)的源代码十分混(hun)亂(luan),难以閱(yue)读和使用。但笔者对于其提到的即在有引(yin)导的条件生成上表现良(liang)好(hao),又(you)在無(wu)引导的开放(fang)生成上表现突(tu)出持保留(liu)态度。该质疑主要来源于笔者在非自回归模型里的一些感性经驗(yan)。该扩散模型的主要优化目标是每个潜在向量與(yu)其词嵌入的预测误差。似乎并没有对句子的整(zheng)体性有任何的要求。甚(shen)至就连P(w|x0)文章采取(qu)的建(jian)模方式也是每个字词的概率的独立(li)连乘(cheng)。这样強(qiang)假(jia)設(she)先验下的建模方式对模型能力(li)要求很高。可能在小(xiao)数據(ju)集(ji)小领域上可以达到較(jiao)好效(xiao)果,但复雜(za)的文本领域恐(kong)怕(pa)难以建模。笔者按照(zhao)作者的开源代码所训练出的结果也不理想(xiang)。但存(cun)在笔者简单嘗(chang)试下误用的可能。

Composable Text Control Operations in Latent Space with Ordinary Differential Equations

笔者自身(shen)对使用预训练模型作为基底(di)的VAE生成模型比较熟(shu)悉(xi),也一直在思(si)考扩散模型和文本生成的最佳(jia)方式是什(shen)么。Diffusion-LM在笔者看来仍有几个缺(que)陷(xian),其中比较大的一个是没有显式建模全(quan)句的生成质量。这点也是笔者自身想实验的点。另(ling)一个是其生成需要预先固(gu)定长度再开始去噪生成極(ji)大地(di)限制(zhi)了使用場(chang)景(jing)。

恰(qia)好最近发现了这篇text control with ODE论文。笔者认为在技(ji)術(shu)路(lu)線(xian)上,该论文比Diffusion-LM更为自洽(qia)和完善(shan)。一方面(mian)该论文是在VAE里的潜在空(kong)间上做扩散,同样是在连续空间上做扩散,该方法避(bi)免(mian)了Diffusion-LM仍需要训练词嵌入并且引发的一系列优化技巧(qiao)(包(bao)括(kuo)损失函数的增添项,clamp trick等)。该论文的做法使得扩散过程仅仅在一个低(di)維(wei)的连续空间上負(fu)責(ze)文本性质的控(kong)制。而在使得潜在向量具有相应的性质后,再将潜在向量交(jiao)由解码器去生成文本。这样做有三个好處(chu)。一方面,该做法避免了Diffusion-LM的定长生成的限制,另一方面因为文本生成依(yi)然交由自回归解码器生成,文本通暢(chang)程度也得到了一定保證(zheng)。最重(zhong)要的是,类似于stable-diffusion的出圈(quan), diffusion+VAE这种做法相比diffusion-LM快了将近两个数量級(ji)!

论文的核心流(liu)程图

对于扩散的具体流程来说,如果给定一个向量a={a_1, a_2, ..., a_n}为我们所希(xi)望(wang)擁(yong)有的所有性质的值的向量,并且規(gui)定f_i 为一个判(pan)断潜在向量z是否拥有相关性质a_i的能量模型(Energy-Based-Model)。那么我们可以得到以下表达式:

其中假定f_i为输出玻(bo)爾(er)茲(zi)曼(man)分布的能量模型

其中Pprior是VAE的高斯先验分布,而E(a|z)是定义在整个性质向量上的能量函数,其形式可以拆解为每个性质的能量函数的加權(quan)和。

对性质向量的能量函数可以定义为对每个性质的能量函数的加权和

并且每个能量函数都会以以下形式正(zheng)则化以避免尺(chi)度差異(yi)。

这是负的对数似然函数的表达式(normalized logits)

註(zhu)意对于扩散的起(qi)点P(T)来说,这是个标准的高斯分布,而扩散的终点P(0)是我们所定义的VAE的高斯先验,也是标准高斯分布。那么实际上我们扩散的每一步Pt(z)都服(fu)从标准高斯分布。将P(z), P(a|z)代入我们的ODE采样表达式后我们可以得到以下的ODE表达式

该扩散过程的ODE解

那么整个扩散采样的流程就很确定了。如果是生成新文本类的任務(wu),我们先从高斯先验中采样一个潜在向量Z,然后根(gen)据我们定义的能量模型的能量函数求解以上表达式。当然純(chun)高斯先验与VAE的后验不可能完全貼(tie)合。所以作者训练了一个单層(ceng)的GAN来近似VAE的后验網(wang)絡(luo)以采样P(T)。而如果是修(xiu)改已有句子的话就比较简单,直接通过VAE的encoder得到潜在向量z来作为P(T)。

本论文的主要貢(gong)獻(xian)如上。那么该论文的VAE+Difussion的路线和普(pu)通的CVAE相比有什么差异呢(ne):

CVAE 如果需要对某(mou)个性质做条件生成(如情(qing)感,关鍵(jian)词)需要大量数据对全量模型训练。但VAE+Diffusion不用,只(zhi)需要固定VAE額(e)外(wai)训练一个潜在向量的分类器做扩散引导即可。而在潜在向量上的分类器,首先维度低,参数量少,训练資(zi)源相比原(yuan)预训练模型低几个数量级!并且所需的训练数据也极少(原论文仅使用200条训练)

CVAE难以做到性质聚(ju)合,往(wang)往需要对不同性质的条件生成单独训练且训练出来的模型难以有效地聚合。但VAE+Diffusion在理论上展现了这种可能(当然是否有效仍需具体观察)。

不过VAE+Diffusion的模式仍存在几个问题笔者覺(jiao)得会导致条件生成的成功(gong)率不高,或者不如论文里“宣称”的那么高:

首先是分类器的准确度是需要考慮(lv)的问题。直接用VAE里的潜在向量去做分类而不是BERT的CLS去做分类笔者与笔者的同事做过相关实验。准确率相比CLS分类是有较为明显的下降的。这样的下降必(bi)然会影(ying)響(xiang)扩散引导的效果。

其次是解码器生成时的采样策(ce)略(lve)必然会导致一定的隨(sui)機(ji)性存在。哪怕是笔者自身训练的CVAE,在做特定的条件生成时往往也需要对同一个潜在向量重复采样以保证条件生成满足相关性质。

再次是关于多个条件聚合时,不同性质的条件聚合是否会出现明显的互(hu)相幹(gan)擾(rao),是否需要手(shou)動(dong)调整各(ge)个性质的比重系数也值得考虑。

自身实踐(jian)

笔者根据论文DELLA[1]复现训练了一个由两个Transformer-XL組(zu)成的VAE(其中transformer的每一层都会出一个潜在向量Z),根据上篇论文对一个電(dian)商(shang)正负情感評(ping)论的分类数据集做了以下几个步驟(zhou):

根据有标簽(qian)数据集生成一批(pi)帶(dai)标签的Latent-Vec数据

用这些带有特定性质的Latent-Vec训练一个情感二分类器

已知扩散过程的起点(Encoder的输出)和终点(带标签的Latent-vec)用分类器进行Nueral-ODE扩散。

其中笔者发现:

分类器的准确度的确不高,最高只能达到八(ba)成左(zuo)右(you)(分类器的架构没有进行太多探(tan)索(suo),只尝试了MLP的一些超(chao)参调整)。分类器雖(sui)然准确率一般(ban)但对性质改变已经足够。

生成的潜在向量确定性比较高,且速度很快。相比于Diffusion-LM需要5分钟左右的扩散时间生成一句话,VAE+diffusion的做法只需要几秒(miao)钟。

以下是几个情感极性扭(niu)转的生成样例(li)(没有经过任何挑(tiao)選(xuan)):

原句1(负面):呵(he)呵了 这物(wu)流速度也是没誰(shui)了 同城(cheng)网購(gou)竟(jing)然三天(tian)了还不到。

改寫(xie)句1:呵呵了 这物流速度也是没谁了 同城网购居(ju)然还可以很不錯(cuo) 哈(ha)哈.

原句2(正面): 还不错,等试用一段(duan)时间再说

改写句2: 还不行,等试用一段时间再说

原句3(负面): 買(mai)错了,自己(ji)是榮(rong)耀(yao)7,悲(bei)哀(ai)了,不管(guan)商家(jia)的事,鬼(gui)火(huo)綠(lv)

改写句3:买对了,自己是荣耀7,呵呵,感謝(xie)商家的事,快樂(le)了,不管火鬼绿

原句4(负面):一次很差的购物 手机到手后 没仔(zai)細(xi)檢(jian)查(zha) 晚(wan)上检查发现手机背(bei)面有劃(hua)痕(hen)聯(lian)系了客(ke)服说換(huan) 但是 后面他(ta)们打(da)电话说不能更换 反正就是各种各样的借(jie)口(kou)

改写句4: 一次很漂(piao)亮的购物 手机上检查 后手机没受(shou)划 具体使用体验可以打电话客服詢(xun)问 后来她(ta)说我不错 而且说都是精(jing)心计划 以后说但是一定要注意换三端(duan)的电话 感觉没有各种各样的借口

参考资料(liao):

^DELLA https://arxiv.org/abs/2207.06130

https://zhuanlan.zhihu.com/p/561233665

本文来自知乎答(da)主中森(sen),若(ruo)进行二次转載(zai),向原作者进行申(shen)請(qing)。返(fan)回搜(sou)狐(hu),查看更多

责任编辑:

发布于:山西大同矿区