2017创意广告案例分享

2017创意广告案例分享

在过去的一年中,我们见证了一些最令人兴奋的广告活动。这些创意广告案例不仅帮助品牌增加了曝光率,也展现了广告行业的创新力。在这篇博客中,我们将分享三个最佳创意广告案例,来探讨这些广告是如何引起观众的兴趣和注意力的。

1. Airbnb - We Accept

图片1:Airbnb广告

Airbnb的广告活动"You can belong anywhere"是一个成功的品牌宣传战略。在这个广告系列中,Airbnb使用真实的用户故事来展示它的房屋分享服务的多样性和包容性。在房屋分享平台上,社区和文化的多样性是一个非常重要的价值。这个系列的广告以Airbnb的名字为首,宣告:"我们欢迎你"。

在这个系列中,Airbnb把市场瞄准在了全球。他们根据不同的国家和地区,制作了不同的广告,这些广告传达了当地的文化和传统。例如,他们在日本的广告,展示了日本的樱花季,同时展示了日本的家庭和餐饮文化。在这个广告系列中,Airbnb成功地传达了品牌的价值观,并帮助了消费者更好地了解当地的文化和社区。

2. Nike - Equality

图片2:Nike广告

Nike近期的广告活动"Equality"是对品牌一贯倡导平等和多样性的延续。在这个广告系列中,Nike使用了一些最知名的运动员和艺术家来宣传平等。这个广告系列包括了一些最知名的篮球运动员:LeBron James、Kevin Durant、Serena Williams和NBA新秀Karl-Anthony Towns。

这个广告系列还包括了一些最知名的音乐家和演员,如Alicia Keys、Michael B. Jordan和Chance the Rapper。这个广告系列的目的是唤起观众对平等和多样性的意识,鼓励人们关注这些重要的社会问题。

3. Coca-Cola - Share A Coke

图片3:可口可乐广告

可口可乐的广告系列"Share a Coke"是一个非常成功的品牌传播活动。这个广告系列的目的是提高可乐的销量,并让品牌更亲近消费者。

在这个广告系列中,可口可乐印刷了一些最常用的英文名字,这些名字代表了一个人的身份和特征。然后,他们鼓励人们与朋友和家人分享可乐。这个广告系列非常成功,因为它与消费者建立了亲密的关系。人们开始关注"Share a Coke",并在社交媒体上分享自己的故事。

结论

这三个广告系列展示了广告行业的创新力和品牌传播的重要性。这些创意广告案例不仅在传递品牌价值和信息方面表现出色,而且也带给了消费者更深层次的情感体验。创意的广告不仅可以吸引人们的注意力,也可以帮助品牌建立更强的品牌认知和亲和力。

2017创意广告案例分享随机日志

或复制需要下载的链接到“下载链接”框中,点击“立即下载”即可

1、调整通知结构,消息显示更加清晰明了

2、随时监控查看宠物在家走动睡觉的场景,定时喂水加食,不会饿肚子,还能使用宠物玩具,和宠物玩耍,养宠更加便捷简单,宠物生活更幸福。

3、新增视频信息快速检索功能,可双击图标以显示视频基本信息。该功能依赖FFmpeg组件。

4、可以解压到新的目录,复制原有的Downloadsxml文件与torrents、share文件夹到新目录后直接启动BC即可。

5、修复了此前提供支持的外站链接,在APP内转发失败的问题;

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>壹(yi)文(wen)解(jie)決(jue)所(suo)有(you)「語(yu)言(yan)模(mo)型(xing)」疑(yi)問(wen):能(neng)不(bu)能訓(xun)多(duo)個(ge)epoch?怎(zen)麽(me)微(wei)調(tiao)效(xiao)率(lv)高(gao)?需(xu)要(yao)多少(shao)條(tiao)數(shu)據(ju)?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】關(guan)於(yu)语言模型,妳(ni)的(de)问題(ti)可(ke)能已(yi)經(jing)有了(le)答(da)案(an)。

過(guo)去(qu)幾(ji)个月(yue)裏(li),Meta的LLaMA引(yin)領(ling)了一場(chang)语言模型的開(kai)源(yuan)狂(kuang)潮(chao),並(bing)且(qie)隨(sui)著(zhe)大(da)眾(zhong)對(dui)语言模型训練(lian)研(yan)究(jiu)的深(shen)入(ru),很(hen)多问题也(ye)都(dou)有了答案。

比(bi)如(ru)需要人(ren)類(lei)反(fan)饋(kui)和(he)強(qiang)化(hua)學(xue)習(xi)來(lai)对齊(qi)语言模型嗎(ma)?语言模型在(zai)ChatGPT模擬(ni)数据上(shang)的效果(guo)怎么樣(yang)?是(shi)否(fou)可以(yi) 用(yong)多个epoch训练语言模型?

最(zui)近(jin),lighting.ai的首(shou)席(xi)教(jiao)研員(yuan)、前(qian)威(wei)斯(si)康(kang)星(xing)大学麥(mai)迪(di)遜(xun)分(fen)校(xiao)統(tong)計(ji)学助(zhu)理(li)教授(shou)Sebastian發(fa)布(bu)了一篇(pian)博(bo)客(ke),介(jie)紹(shao)了一些(xie)解决上述(shu)疑问的研究成(cheng)果。

在特(te)定(ding)任(ren)務(wu)上微调语言模型

Goat模型是一个基(ji)于7B LLaMA微调的模型,在算(suan)術(shu)任务上的性(xing)能優(you)于GPT-4,在零(ling)样本(ben)設(she)置(zhi)中(zhong)還(hai)超(chao)越(yue)了75倍(bei)參(can)数量(liang)的540B PaLM

論(lun)文鏈(lian)接(jie):https://arxiv.org/pdf/2305.14201.pdf

Goat相(xiang)當(dang)于是一个專(zhuan)有用途(tu)的微调LLM,從(cong)直(zhi)覺(jiao)来看(kan)也肯(ken)定會(hui)优于GPT-4等(deng)通(tong)用聊(liao)天(tian)機(ji)器(qi)人。

不过对業(ye)务来說(shuo),這(zhe)篇论文也打(da)开了专用模型的大門(men),畢(bi)竟(jing)大部(bu)分公(gong)司(si)追(zhui)求(qiu)的都是在某(mou)一领域(yu)超越GPT-4即(ji)可。

雖(sui)然(ran)Goat并不是第(di)一个針(zhen)对特定任务進(jin)行(xing)微调的语言模型,还有大量的基于FLAN微调的工(gong)作(zuo),但(dan)Goat取(qu)得(de)成功(gong)的兩(liang)个要素(su)在于:

1. 在一个更(geng)好(hao)的基礎(chu)语言模型上,在目(mu)標(biao)任务(相对于通用預(yu)训练或(huo)指(zhi)令(ling)微调)上进行有監(jian)督(du)微调;

2. LLaMA对数字(zi)的分詞(ci)技(ji)术(將(jiang)每(mei)个数字單(dan)獨(du)分配(pei)一个token)

从實(shi)驗(yan)結(jie)果可知(zhi)二(er)者(zhe)的结合(he)是很重(zhong)要的,第一點(dian)是因(yin)為(wei)原(yuan)始(shi)7 B LLaMA基础型號(hao)不如GPT-4;第二点是因为对OPT,GPT-J等模型的微调结果不如Goat好,因为其(qi)他(ta)模型的数字分词技术不统一。

也有人有疑问,为什(shen)么不用Wolfram Alpha或常(chang)規(gui)计算器等工具(ju)进行算数计算,而(er)非(fei)要用语言模型算数?

对这篇论文来说,算术任务可以很容(rong)易(yi)地(di)合成数据集(ji),評(ping)估(gu)也更方(fang)便(bian),方便測(ce)試(shi)微调性能。

从Goat到(dao)Gorilla

另(ling)一个微调LLM以提(ti)高某一特定功能的例(li)子(zi)是Gorilla,一个专门用于生(sheng)成API调用的LLM。

论文链接:https://arxiv.org/abs/2305.15334

研究人员使(shi)用LLaMA-7 B基础模型,并对来自(zi)Torch Hub、TensorFlow Hub和HuggingFace的1645个API调用进行了微调,发現(xian)经过微调的Gorilla在API调用上优于其他未(wei)进行微调的LLM。

讓(rang)微调更高效

之(zhi)前提到的Goat模型使用低(di)秩(zhi)自適(shi)應(ying)(LoRA)技术以提高微调的效率,可以在单个24GB顯(xian)存(cun)GPU上对70億(yi)参数LLaMA模型进行微调。

论文链接:https://arxiv.org/abs/2305.14314

而最近发布的一个新技术QLoRA(量化LoRA)可以在单个 48GB显存的GPU上训练650亿参数的LLaMA模型,量化的4位(wei)参数设置下(xia),训练後(hou)得到的65B Guanaco模型保(bao)持(chi)了完(wan)整(zheng)的16位微调任务性能,并且僅(jin)在微调24小(xiao)時(shi)后就(jiu)達(da)到了ChatGPT性能的99.3%。

微调语言模型需要多少数据?

对于想(xiang)要定制(zhi)语言模型的从业者和研究人员来说,起(qi)步(bu)難(nan)题就是獲(huo)得足(zu)夠(gou)的数据进行微调。

最近发布的LIMA论文可能是一次(ci)微调上的突(tu)破(po),研究结果表(biao)明(ming),仅在1000个示(shi)例上进行微调的65 B LLaMA模型(以有监督的方式(shi))并不落(luo)后于ChatGPT / GPT3.5等更大的模型。

论文链接:https://arxiv.org/abs/2305.11206

研究人员发现,在57%的情(qing)況(kuang)下,GPT-4仍(reng)然更好,但他們(men)觀(guan)察(cha)到,在43%的情况下,LIMA优于或相当于GPT-4,已经非常强了;或者从另一个角(jiao)度(du)来看,大約(yue)有一半(ban)的情况,LIMA可以优于GPT-4的前身(shen)ChatGPT/GPT3.5(也叫(jiao)DaVinci 003)。

不过还有一个问题是,同(tong)样是有监督微调后的LLaMA模型,为什么LIMA的表现比Alpaca好这么多?

首先(xian),LIMA基于65B LLaMA模型,而原始Alpaca模型基于7B LLaMA基础模型。

为了公平(ping)对比,作者使用65B基础模型復(fu)刻(ke)了Alpaca的训练过程(cheng),即使用原始Alpaca項(xiang)目中描(miao)述的52000个样本进行训练。

所以可以得出(chu)结论,差(cha)異(yi)实際(ji)上来源于作者为LIMA精(jing)心(xin)策(ce)劃(hua)的训练集的質(zhi)量,使得LIMA可以擊(ji)敗(bai)在52倍数据上训练的相同的65B LLaMA基础模型。

不过还缺(que)少的一个基線(xian)对比和消(xiao)融(rong)研究是LIMA與(yu)使用RLHF而非有监督学习进行微调的65B LLaMA基础模型。

虽然LIMA的实验结果非常有前景(jing),不过有一篇论文的研究结果也需要註(zhu)意(yi),模仿(fang)学习得到的语言模型可能并沒(mei)有想象(xiang)中的那(na)么强。

论文链接:https://arxiv.org/abs/2305.15717

最近几个月,根(gen)据来自其他语言模型(如ChatGPT)的数据对LLM进行微调已成为常見(jian)做(zuo)法(fa),不过研究人员发现,众包(bao)工作者对这些所謂(wei)的模仿模型评價(jia)很高。但事(shi)实證(zheng)明,这些模仿模型只(zhi)傾(qing)向(xiang)于模仿上遊(you)语言模型的風(feng)格(ge),而非真(zhen)实性。

LIMA论文虽然没有使用模仿数据,而是使用精心设计的数据集,但仍然值(zhi)得强调的是,评估结果有时似(si)乎(hu)好得令人难以置信(xin),我(wo)们需要更好的基準(zhun)测试。

人类反馈强化学习的替(ti)代(dai)方案

最近几个月,有监督微调成了微调语言模型的新範(fan)式,比如LIMA论文也是使用有监督微调,但也存在其他方法来替代基于人类反馈的强化学习。

直接偏(pian)好优化(DPO,Direct Preference Optimization)也是一種(zhong)全(quan)新的、可替代强化学习的方法,使用接近策略(lve)优化(PPO)的人类反馈,用于ChatGPT等指令微调模型。

研究人员表明,在RLHF中拟合獎(jiang)勵(li)模型的交(jiao)叉(cha)熵(shang)損(sun)失(shi)可以直接用于微调语言模型,而且根据基准测试,使用DPO更有效,并且在回(hui)复质量方面(mian)通常也优于RLHF/PPO

多个epoch训练会怎么样?

微调模型需要一个预训练的基础模型,所以一个很自然的需求就是获得更好的基础模型。

对经典(dian)的机器学习模型、深度神(shen)经網(wang)絡(luo)以及(ji)最新的視(shi)觉Transformer模型训练数百(bai)个epoch是很常见的操(cao)作,不过大型语言模型通常指训练1个epoch,如果训练超过一个epoch会发生什么?

论文链接:https://arxiv.org/pdf/2305.13230.pdf

事实证明,互(hu)聯(lian)网上的高质量文本数据比想象中的更少,此(ci)外(wai),如果受(shou)版(ban)權(quan)保護(hu)的材(cai)料(liao)在未来被(bei)要求刪(shan)除(chu),可能会进一步縮(suo)小数据集的规模。

论文实验结果表明,要是因为数据量少就训练多个epoch,可能会导致(zhi)模型过拟合。

另一个有趣(qu)的结论是:dropout可以幫(bang)助減(jian)少过度拟合,但其他技术如权重衰(shuai)减卻(que)并不能。

不过现在常用的大型语言模型模型,如LLaMA,Gopher,Chinchilla,GPT-3和PaLM都没有使用dropout,因为会减慢(man)学习速(su)度。

三(san)个开放(fang)问题

1. 只重复训练像(xiang)LIMA这样的高质量数据怎么样?

从直觉上来看,这是有意義(yi)的,可能会对模型质量提升(sheng)有所帮助,不过壞(huai)消息(xi)是,从实际来看没有多大帮助。

研究人员对維(wei)基百科(ke)的数据进行了一项相关实验,相比C4来说他们認(ren)为维基百科是高质量的,不过事实证明,当维基百科数据在训练期(qi)間(jian)重复多个epoch后也发生了类似的退(tui)化现象。

2. 数据增(zeng)强有用吗?

目前有几种数据增强技术,包括(kuo)回譯(yi)、同义词替換(huan)、句(ju)子重排(pai)以及使用模型合成数据(例如GPT-4),但还没有数据增强对模型训练效果的全面分析(xi)。

3. 微调是什么样的?同样的规則(ze)适用吗?

根据作者的经验,训练3-5个小epoch是值得的,但目前也没有相关研究全面分析。

更高效的视觉Transformer

EfficientViT是一种全新的视觉Transformer,在速度和准確(que)性之间提供(gong)了良(liang)好的平衡(heng),其性能优于其他高效架(jia)構(gou),如MobileNetV3和MobileViT,同时速度更快(kuai)。

论文链接:https://arxiv.org/abs/2305.07027

研究人员使用級(ji)联組(zu)注意力(li),并为每个注意力頭(tou)提供完整特征(zheng)的不同分割(ge)(类似于组卷(juan)積(ji))来减少多头自注意力層(ceng)中的冗(rong)余(yu)。

之前的研究主(zhu)要关注最佳(jia)的数据集大小和模型参数量,最近研究人员提出了推(tui)斷(duan)计算最佳模型形(xing)狀(zhuang)的方法,例如寬(kuan)度和深度,实验中的视觉Transformer性能优于大两倍的模型。

论文链接:https://arxiv.org/abs/2305.13035

此外,如果使用相同的计算資(zi)源预算来训练較(jiao)小的计算优化模型,其推理成本不到较大模型的一半。

参考(kao)资料:

https://magazine.sebastianraschka.com/p/ahead-of-ai-9-llm-tuning-and-dataset返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:黑龙江省齐齐哈尔讷河市