成功吸引人的创意广告

吸引人的创意广告是如何制作的呢?

当你在电视上或者互联网上看到一则广告后,你是否会被它吸引?这是创意广告的成功之处。创意广告与传统广告不同,它们利用人们的情感和想象力,创造出一个独特的印象,让观众印象深刻,提高品牌知名度。那么,创意广告是如何制作的呢?首先,创意团队需要深入了解品牌和产品,从中提取出能够引起观众共鸣的元素,然后将这些元素通过各种方式呈现给观众。

一幅创意艺术的图片

创意广告需要让观众有记忆点,同时也需要让观众产生共鸣。创意广告需要贴近观众的生活,关注现实的问题,用各种方式让观众联想到品牌和产品。创意广告的制作需要一群有创意、有想象力的人,他们不断尝试、实验和创新,直到制作出一个能够吸引人、让人印象深刻的广告。

一幅广告牌的图片

如何创作成功的创意广告?

要想制作成功的创意广告,需要注意以下几点:

1. 了解品牌和产品

创意团队首先需要了解品牌和产品,从中提取出能够引起观众共鸣的元素。只有深入了解品牌和产品,才能创作出能够贴近观众生活、关注现实问题的广告。

2. 挖掘独特的创意

创意是制作成功的创意广告的关键,创作团队需要挖掘出独特的创意。创意需要贴近观众的生活,让观众能够感同身受、产生共鸣。

3. 用多种方式呈现

创意广告需要通过不同的方式呈现,可以是视频、图片、文字或音乐等。通过多种方式的呈现,能够吸引更多的观众的注意。同时也需要注意,广告需要贴近观众的生活,关注现实的问题。

一幅创意艺术的图片

结论

创意广告的制作需要有创意、有想象力的人,他们需要不断尝试、实验和创新,直到制作出一个能够吸引人、让人印象深刻的广告。创意广告需要贴近观众的生活,关注现实的问题,用各种方式让观众联想到品牌和产品。

成功吸引人的创意广告特色

1、一键分享:录制完成后,一键分享到社交网络与朋友共享

2、自由贸易新系统,世界排名丰富道具,给您一个真实的拳皇世界;

3、薪人迷途最新版

4、还能帮你一键清理相关垃圾。更多优质服务在这里等你来体验。

5、【风格完美覆盖】街头品牌众多,和世界上潮流玩家一起享受搭配乐趣,感受每一种风格的乐趣所在。

成功吸引人的创意广告亮点

1、丰富的游戏模式,竞技对战模式,魔塔挑战模式;

2、引领全球视频表达

3、轻松赚取就能零花钱

4、丰富的营销活动,精彩多多,优惠多多,让购物更有趣!

5、观看微博视频;

yijianfenxiang:luzhiwanchenghou,yijianfenxiangdaoshejiaowangluoyupengyougongxiangziyoumaoyixinxitong,shijiepaimingfengfudaoju,geininyigezhenshidequanhuangshijie;xinrenmituzuixinbanhainengbangniyijianqinglixiangguanlaji。gengduoyouzhifuwuzaizhelidengnilaitiyan。【fenggewanmeifugai】jietoupinpaizhongduo,heshijieshangchaoliuwanjiayiqixiangshoudapeilequ,ganshoumeiyizhongfenggedelequsuozai。為(wei)啥(sha)ChatGPT讓(rang)LeCun酸(suan)成(cheng)檸(ning)檬(meng)精(jing)?谷(gu)歌(ge)、Meta、OpenAI聊(liao)天(tian)機(ji)器(qi)人(ren)大(da)PK!

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji): 好(hao)困(kun) Aeneas 桃(tao)子(zi)

【新智元導(dao)讀(du)】做(zuo)聊天机器人,OpenAI不(bu)是(shi)第(di)壹(yi)家(jia),但(dan)絕(jue)對(dui)是最(zui)出(chu)風(feng)頭(tou)的(de)那(na)個(ge)。谷歌、Meta、DeepMind、OpenAI的聊天机器人大PK,誰(shui)最牛(niu)?

前(qian)幾(ji)天,Meta首(shou)席(xi)人工(gong)智能(neng)科(ke)學(xue)家Yann LeCun的一段(duan)对於(yu)ChatGPT的點(dian)評(ping)迅(xun)速(su)傳(chuan)遍(bian)圈(quan)內(nei)外(wai),引(yin)發(fa)了(le)大波(bo)討(tao)論(lun)。

在(zai)Zoom的媒(mei)體(ti)和(he)高(gao)管(guan)小(xiao)型(xing)聚(ju)會(hui)上(shang),LeCun給(gei)出了一段令(ling)人驚(jing)訝(ya)的评價(jia):「就(jiu)底(di)層(ceng)技(ji)術(shu)而(er)言(yan),ChatGPT並(bing)不是多(duo)麽(me)了不得(de)的創(chuang)新。」

「雖(sui)然(ran)在公(gong)眾(zhong)眼(yan)中(zhong),它(ta)是革(ge)命(ming)性(xing)的,但是我(wo)們(men)知(zhi)道,它就是一个組(zu)合(he)得很(hen)好的產(chan)品(pin),僅(jin)此(ci)而已(yi)。」

ChatGPT不算(suan)什(shen)么创新

ChatGPT作(zuo)为這(zhe)几个月(yue)的聊天机器人「頂(ding)流(liu)」,早(zao)就紅(hong)遍全(quan)世(shi)界(jie),甚(shen)至(zhi)切(qie)實(shi)改(gai)變(bian)了一部(bu)分(fen)人的職(zhi)業(ye)生(sheng)涯(ya),以(yi)及(ji)学校(xiao)教(jiao)育(yu)的現(xian)狀(zhuang)。

全世界为它惊嘆(tan)的時(shi)候(hou),LeCun对ChatGPT的点评居(ju)然如(ru)此「輕(qing)描(miao)淡(dan)寫(xie)」。

但其(qi)实,他(ta)的言论不無(wu)道理(li)。

像(xiang)ChatGPT这種(zhong)數(shu)據(ju)驅(qu)動(dong)的人工智能系(xi)統(tong),許(xu)多公司(si)和研(yan)究(jiu)型实驗(yan)室(shi)有(you)。LeCun表(biao)示(shi),OpenAI在这个領(ling)域(yu)并沒(mei)有多么獨(du)樹(shu)一幟(zhi)。

「除(chu)了谷歌和Meta之(zhi)外,還(hai)有六(liu)家初(chu)创公司,基(ji)本(ben)上都(dou)擁(yong)有非(fei)常(chang)相(xiang)似(si)的技术。」LeCun 補(bu)充(chong)道。

接(jie)著(zhu)(zhe),LeCun小酸了一把(ba)——

「ChatGPT用(yong)的是以自(zi)監(jian)督(du)方(fang)式(shi)進(jin)行(xing)預(yu)訓(xun)練(lian)的Transformer架(jia)構(gou),而自监督学習(xi)是本人長(chang)期(qi)以來(lai)一直(zhi)提(ti)倡(chang)的,那会兒(er)OpenAI还没誕(dan)生呢(ne)。」

其中,Transformer是谷歌的发明(ming)。这种語(yu)言神(shen)經(jing)網(wang)絡(luo),正(zheng)是GPT-3等(deng)大型语言模(mo)型的基礎(chu)。

而第一个神经网络语言模型,Yoshua Bengio早在20年(nian)前就提出了。Bengio的註(zhu)意(yi)力(li)机制(zhi)後(hou)来被(bei)谷歌用于Transformer,之后更(geng)是成为了所(suo)有语言模型中的關(guan)鍵(jian)元素(su)。

另(ling)外,ChatGPT用的是人類(lei)反(fan)饋(kui)強(qiang)化(hua)学习(RLHF)的技术,也(ye)是由(you)谷歌DeepMind实验室開(kai)创的。

在LeCun看(kan)来,ChatGPT與(yu)其說(shuo)是一个科学突(tu)破(po),不如说是一項(xiang)成功(gong)的工程(cheng)案(an)例(li)。

OpenAI的技术「在基础科学方面(mian)并没有什么创新性,它只(zhi)是設(she)計(ji)得很好而已。」

「當(dang)然啦(la),我不会为此批(pi)评他们。」

我不是在批评OpenAI的工作,也不是在批评他们的主(zhu)張(zhang)。

我是想(xiang)糾(jiu)正公众和媒体的看法(fa),他们普(pu)遍認(ren)为ChatGPT是一种创新且(qie)独特(te)的技术突破,然而事(shi)实并非如此。

在紐(niu)約(yue)时报記(ji)者(zhe)Cade Metz的座(zuo)談(tan)会上,LeCun感(gan)受(shou)到(dao)了好事者的疑(yi)問(wen)。

「妳(ni)可(ke)能想问,为什么谷歌和Meta没有类似的系统呢?我的回(hui)答(da)是,如果(guo)谷歌和Meta推(tui)出这种会胡(hu)说八(ba)道的聊天机器人,損(sun)失(shi)会相当慘(can)重(zhong)。」他笑(xiao)着说。

无独有偶(ou),OpenAI被微(wei)軟(ruan)等金(jin)主看好、身(shen)价飆(biao)升(sheng)至290億(yi)美(mei)元的新聞(wen)一出,馬(ma)庫(ku)斯(si)也連(lian)夜(ye)在博(bo)客(ke)上写了一篇(pian)文(wen)章(zhang)嘲(chao)諷(feng)。

在文中,马库斯爆(bao)出一句(ju)金句: 你OpenAI能做啥谷歌做不到的事,值(zhi)290亿美元天价?

谷歌、Meta、DeepMind、OpenAI大PK!

話(hua)不多说,咱(zan)们把这几家AI巨(ju)头的聊天机器人都拉(la)出来遛(liu)遛,用数据说话。

LeCun说许多公司和实验室都有类似ChatGPT的AI聊天机器人,此言不虛(xu)。

ChatGPT并不是第一个基于语言模型的AI聊天机器人,它有很多「前輩(bei)」。

在OpenAI之前,Meta、谷歌、DeepMind等都发布(bu)了自己(ji)的聊天机器人,比(bi)如Meta的BlenderBot、谷歌的LaMDA、DeepMind的Sparrow。

还有一些(xie)團(tuan)隊(dui),也公布了自己的开源(yuan)聊天机器人计劃(hua)。比如,来自LAION的Open-Assistant。

在Huggingface的一篇博客中,几位(wei)作者調(tiao)查(zha)了关于RLHF、SFT、IFT、CoT(它们都是ChatGPT的关键詞(ci))这些主題(ti)的重要(yao)论文,对它们进行了分类和總(zong)結(jie)。

他们制成了一个表,根(gen)据公开訪(fang)问、训练数据、模型架构和评估(gu)方向(xiang)等細(xi)節(jie),对BlenderBot、LaMDA、Sparrow和InstructGPT这些AI聊天机器人进行了比較(jiao)。

注意:因(yin)为ChatGPT没有记錄(lu),所以他们使(shi)用的是InstructGPT的细节,InstructGPT是一个来自OpenAI的指(zhi)令微调模型,可以被认为是ChatGPT的基础。

LaMDA

BlenderBot 3

Sparrow

ChatGPT/ InstructGPT

组織(zhi)机构

Google

Meta

DeepMind

OpenAI

访问權(quan)限(xian)

封(feng)閉(bi)

公开

封闭

有限

參(can)数規(gui)模

1370亿

1750亿

700亿

1750亿

基础模型

未(wei)知

OPT

Chinchilla

GPT-3.5

语料(liao)库规模

2.81萬(wan)亿

1000亿

1.4万亿

未知

访问网络

??

??

??

??

监督微调

??

??

??

??

微调数据规模

高質(zhi)量(liang):6.4K

安(an)全性:8K

落(luo)地(di)性:4K

IR: 49K

20个NLP数据集(ji),範(fan)圍(wei)從(cong)18K到1.2M

未知

12.7K(ChatGPT可能更多)

RLHF

??

??

??

??

人工安全规則(ze)

?

??

?

??

不難(nan)发现,盡(jin)管在训练数据、基础模型和微调方面存(cun)在许多差(cha)異(yi),但这些聊天机器人都有一个共(gong)同(tong)点——遵(zun)循(xun)指令。

比如,你可以通(tong)過(guo)指令让ChatGPT写一首关于微调的詩(shi)。

可以看到,ChatGPT非常「識(shi)相」,写诗都不忘(wang)拍(pai)一下(xia)LeCun和Hinton兩(liang)位祖(zu)師(shi)爺(ye)的马屁(pi)。

隨(sui)后激(ji)情(qing)洋(yang)溢(yi)地贊(zan)頌(song)道:「微调啊(a),微调,你是一支(zhi)美麗(li)的舞(wu)蹈(dao)。」

从预測(ce)文本到遵循指令

通常情況(kuang)下,基础模型的语言建(jian)模,是不足(zu)以让模型学会如何(he)遵循用戶(hu)指令的。

在模型的训练中,研究人員(yuan)除了会采(cai)用经典(dian)的NLP任(ren)務(wu)(比如情感、文本分类、总结等),还会使用指令微调(IFT),也就是在非常多樣(yang)化的任务上通过文字(zi)指令对基础模型进行微调。

其中,这些指令示例由三(san)个主要部分组成:指令、輸(shu)入(ru)和输出。

输入是可選(xuan)的,有些任务只需(xu)要指令,如上面ChatGPT示例中的开放(fang)式生成。

当一个输入和输出出现时,就形(xing)成了一个示例。对于一个给定(ding)的指令,可以有多个输入和输出示例。比如下面这个例子:

IFT的数据,通常是人类编写的指令和使用语言模型引导的指令示例的集合。

在引导过程中,LM在few-shot(小样本)的设置(zhi)中被提示(如上圖(tu)),并被指示生成新的指令、输入和输出。

在每(mei)一輪(lun)中,模型会被提示从人工编写和模型产生的样本中选擇(ze)。

人类和模型对创建数据集的貢(gong)獻(xian)量像一个光(guang)譜(pu)一样(見(jian)下图)。

一端(duan)是純(chun)粹(cui)的模型生成的IFT数据集,如Unnatural Instructions,另一端是大量人工生成的指令,如Super-natural instructions。

介(jie)于这两者之間(jian)的,是使用一套(tao)规模较小但质量更高的种子数据集,然后进行引导的工作,如Self-instruct。

为IFT整(zheng)理数据集的另一种方式是,利(li)用现有的关于各(ge)种任务(包(bao)括(kuo)提示)的高质量众包NLP数据集,并使用统一的模式或(huo)不同的模板(ban)將(jiang)这些数据集轉(zhuan)換(huan)成指令。

这方面的工作包括T0、自然指令数据集(Natural instructions dataset)、FLAN LM和OPT-IML。

自然指令数据集相关论文:https://arxiv.org/abs/2104.08773

对模型进行微调

另一方面,OpenAI的InstructGPT、DeepMind的Sparrow和Anthropic的Constitutional AI都采用了基于人类反馈的强化学习(RLHF),也就是人类偏(pian)好的注釋(shi)。

在RLHF中,一组模型響(xiang)應(ying)根据人类反馈进行排(pai)序(xu)(例如,选择一个更受歡(huan)迎(ying)的文字簡(jian)介)。

接下来,研究人员在这些注释过的响应上训练一个偏好模型,为RL優(you)化器返(fan)回一个標(biao)量獎(jiang)勵(li)。

最后,通过强化学习训练聊天机器人来模擬(ni)这个偏好模型。

思(si)維(wei)鏈(lian)(CoT)提示,是指令示例的一个特例,它通过誘(you)导聊天机器人逐(zhu)步(bu)推理,以此来产生输出。

用CoT进行微调的模型,会使用帶(dai)有人类注释的分步推理的指令数据集。

这就是那句著名(ming)的prompt——「let's think step by step」的起(qi)源。

下面的例子取(qu)自「Scaling Instruction-Finetuned Language Models」。其中,橙(cheng)色(se)突出了指令,粉(fen)色顯(xian)示了输入和输出,藍(lan)色是CoT推理。

论文指出,采用CoT微调的模型,在涉(she)及常识、算术和符(fu)號(hao)推理的任务中表现得更好。

此外,CoT微调在敏(min)感话题方面也非常有效(xiao)(有时比RLHF做得更好),尤(you)其是可以避(bi)免(mian)模型擺(bai)爛(lan)——「对不起,我无法回答」。

安全地遵循指令

正如剛(gang)才(cai)提到的, 指令微调的语言模型并不能永(yong)遠(yuan)产生有用且安全的响应。

比如,它会通过给出无用的回答来逃(tao)避,例如「对不起,我不明白(bai)」;或者对拋(pao)出敏感话题的用户输出不安全的响应。

为了改善(shan)这种行为,研究人员通过监督微调(SFT)的形式,在高质量的人类注释数据上对基础语言模型进行微调,从而提升模型的有用性和无害(hai)性。

SFT和IFT的聯(lian)系非常緊(jin)密(mi)。IFT可以看作是SFT的一个子集。在最近(jin)的文献中,SFT階(jie)段经常用于安全主题,而不是用于在IFT之后完(wan)成的特定指令主题。

在将来,它们的分类和描述(shu)应該(gai)会有更清(qing)晰(xi)的用例。

另外,谷歌的LaMDA也是在一个有安全注释的对话数据集上进行微调的,该数据集有基于一系列(lie)规则的安全注释。

这些规则通常由研究人员预先(xian)定義(yi)和开发,包含(han)了一系列廣(guang)泛(fan)的主题,包括傷(shang)害、歧(qi)視(shi)、錯(cuo)誤(wu)信(xin)息(xi)等。

AI聊天机器人的下一步

关于AI聊天机器人,目(mu)前仍(reng)有许多开放性问题有待(dai)探(tan)索(suo),比如:

1. RL在从人类反馈中学习方面有多重要?我们能在IFT或SFT中通过更高质量的数据训练獲(huo)得RLHF的性能嗎(ma)?

2. Sparrow中的SFT+RLHF,与LaMDA中仅仅使用SFT,两者的安全性如何比较?

3. 鑒(jian)于我们已经有了IFT、SFT、CoT和RLHF,那么还有多少(shao)预训练是必(bi)要的?有哪(na)些权衡(heng)因素?最好的基础模型是哪个(包括公开的和非公开的)?

4. 现在这些模型都是精心(xin)设计的,其中研究人员会專(zhuan)門(men)搜(sou)索故(gu)障(zhang)模式,并根据揭(jie)露(lu)的问题影(ying)响未来的训练(包括提示和方法)。我们如何系统地记录这些方法的效果并进行復(fu)现?

总结一下

1. 与训练数据相比,只需拿(na)出非常小的一部分用于指令微调(几百(bai)个数量級(ji)即(ji)可)。

2. 监督微调利用人类注释,可以让模型的输出更加(jia)安全和有用。

3. CoT微调提高了模型在逐步思考(kao)任务上的表现,并使模型不会总是逃避敏感问题。

参考資(zi)料:

https://huggingface.co/blog/dialog-agents返回搜狐(hu),查看更多

責(ze)任编辑:

发布于:河北省唐山迁安市