全球十大创意广告金奖

全球十大创意广告金奖

全球十大创意广告金奖是广告界的最高荣誉之一,每年评选出最具创意的广告作品。这些广告不仅在视觉上给人留下深刻印象,更能让人从中感受到品牌的魅力和价值。以下是2019年全球十大创意广告金奖中的其中五个。

1. “Dream Crazy” – Nike

一对年轻男女在篮球场上比赛

Nike的广告总是充满鼓舞人心的力量,这次他们用“Dream Crazy”这个广告来表达他们对于人类潜能的信仰。广告由NFL选手科林·卡佩尼克领衔主演,展现了一系列惊人的运动场景,力图鼓励人们追求自己的梦想。

2. “The Truth Is Worth It” – The New York Times

一位记者在电脑前工作

这个广告以纽约时报记者展现的真实探险故事为主题,将时间回溯到2003年,纽约时报记者追踪一名ISIS成员在伊拉克制造的炸弹。广告揭示了新闻记者的艰辛工作,为新闻事实而努力的背后。

3. “The Boy and the Piano” – John Lewis & Partners

男孩坐在钢琴上

这个广告由John Lewis & Partners制作,旨在庆祝他们100周年的历史。故事主角是埃尔顿·约翰,他在钢琴前弹奏着他的经典歌曲“Your Song”。广告以回顾历史的方式,将观众带入过去,并让他们感受到这个品牌的温情和价值。

4. “Viva La Vulva” – Essity

水果和蔬菜摆成女性私处的形状

这个广告由全球领先的卫生护理公司Essity制作,旨在打破对女性私处的禁忌和刻板印象。广告以唯美的方式展现了女性私处的多样性和美丽,强调每个女性都应该为自己的身体自豪。

5. “The Whopper Detour” – Burger King

汉堡和薯条

这个广告由汉堡王制作,旨在宣传他们的移动应用程序和智能订单系统。广告主张顾客可以通过这个应用程序在离汉堡王一英里之内的麦当劳订单,然后到汉堡王取餐。广告巧妙地利用了竞争对手的位置,吸引了很多年轻消费者。

这五个广告都各自展现了品牌的魅力和价值,让人们从中感受到了不同的情感共鸣。全球十大创意广告金奖的评选标准是创意、原创性和对品牌的推广效果,这些广告都展现了这些标准的最高水平。

结合SEO的创意广告营销策略

一位女士在工作台前查看电脑屏幕

在现代营销领域,SEO已经成为最重要的推广策略之一。SEO不仅可以提高品牌的曝光率和网站的自然排名,还可以提高品牌的知名度和认可度。但在创意广告营销中,SEO并不是一种独立的策略,而是一种与其他营销策略结合的有效手段。

创意广告营销需要有独特的创意和高质量的内容,这些内容需要与品牌的形象和价值相一致。而SEO则可以通过关键词的选择和网站的优化,将这些内容呈现给目标受众。在创意广告营销中,SEO应该是品牌推广策略的有机组成部分,而不是独立的推广手段。

另外,创意广告营销需要具有独特的品牌故事和情感共鸣,这些内容需要通过多种渠道进行传播。SEO可以通过网站优化和社交媒体推广等手段,将品牌故事传递给更多的潜在客户。在创意广告营销中,SEO是将品牌故事传递给更多人的重要推广手段之一。

创意广告营销中的法律问题

一位律师在书房工作

在创意广告营销中,法律问题是一个非常重要的考虑因素。在中国,广告法规定广告必须实事求是,不能虚假宣传,不能误导消费者,不能违反公共利益和公共道德。因此,广告创意必须与品牌形象相一致,不能夸大其词,不能误导消费者,不能违反社会公德。

另外,在创意广告营销中,版权问题也是需要考虑的一个重要因素。广告创意通常是由创意团队和广告代理商共同创作的,他们需要保护自己的知识产权,并避免侵犯他人的知识产权。因此,在广告创意营销中,版权问题是一个需要重视的问题。

总之,在创意广告营销中,法律问题是一个需要重视的问题。品牌需要遵守相关法律法规,并保护自己的知识产权,以便在市场竞争中获得更好的发展。

综上所述,创意广告营销需要有独特的创意和高质量的内容,SEO是将这些内容呈现给目标受众的有效手段。同时,法律问题也是需要重视的一个考虑因素,品牌需要遵守相关法律法规,并保护自己的知识产权,以便在市场竞争中获得更好的发展。

全球十大创意广告金奖随机日志

兼听则明,我们听取了招聘者的反馈,对一些共性问题做了改进。

1、橙-00M带宽以内跟黑色几乎无差别。00M以上的带宽才能体验出差距来,比黑色稍慢。

2、认证前,首先根据填写或者自动带出的他人/本人信息查询其是否具有退休待遇领取信息,再进行活体检测,通过后,进行实人认证

3、【多维度学习反馈】实时生成学习报告,帮助家长了解学习情况,保障孩子学习效果

4、陪练增加题库练习和视频辅修课,为考级琴童提供更多学习指导。启蒙课程增加了伴奏开关,可以自由练习哦!

5、同样是个极具创新和关怀的新功能,用户可以在使用软件的过程中添加自己的注释,丰富软件数据的同时,也能留下自己的印记哦!

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>幹(gan)掉(diao)「標(biao)題(ti)黨(dang)」,清(qing)華(hua)團(tuan)隊(dui)又(you)壹(yi)開(kai)源(yuan)力(li)作(zuo)!

新(xin)智(zhi)元(yuan)報(bao)道(dao)

作者(zhe):OpenBMB开源社(she)區(qu)(GitHubDaily)

編(bian)輯(ji):David

【新智元導(dao)讀(du)】寫(xie)公(gong)眾(zhong)號(hao)文(wen)章(zhang)什(shen)麽(me)最(zui)頭(tou)疼(teng)?起(qi)标题!清华大(da)學(xue)與(yu)OpenBMB开源社区推(tui)出(chu)的(de)大模(mo)型(xing)趣(qu)味(wei)應(ying)用(yong):「智取(qu)标题」,輸(shu)入(ru)正(zheng)文內(nei)容(rong),一鍵(jian)生(sheng)成(cheng)勁(jin)爆(bao)标题!

作為(wei)一個(ge)起名(ming)困(kun)難(nan)戶(hu),高(gao)中(zhong)写作文最困擾(rao)我(wo)的就(jiu)是(shi)写好(hao)文章卻(que)不(bu)知(zhi)道起什么题目(mu),开始(shi)做(zuo)公众号以(yi)後(hou),每(mei)次(ci)想(xiang)标题也(ye)都(dou)要(yao)掉一大把(ba)头發(fa)......

最近(jin),終(zhong)於(yu)讓(rang)我在(zai) GitHub 发現(xian)了(le)「取名廢(fei)」之(zhi)光(guang),由(you)清华大学与 OpenBMB 开源社区推出的大模型趣味应用:「智取标题」,输入正文内容就能(neng)一键生成劲爆标题!

开箱(xiang)即(ji)用,試(shi)過(guo)后我只(zhi)能說(shuo):真(zhen)香(xiang)!

在線(xian)體(ti)驗(yan):https://live.openbmb.org/ant

GitHub:https://github.com/OpenBMB/CPM-Live

提(ti)到(dao)這(zhe)个标题党神(shen)器(qi),就不得(de)不先(xian)好好聊(liao)一聊它(ta)的「本(ben)体」——大模型 CPM-Ant。

CPM-Ant 作为國(guo)内首(shou)个直(zhi)播(bo)訓(xun)練(lian)百(bai)億(yi)大模型, 训练耗(hao)時(shi) 68 天(tian),于 2022 年(nian) 8 月(yue) 5 日(ri)完(wan)成,並(bing)由 OpenBMB 正式(shi)发布(bu)!

五(wu)大卓(zhuo)越(yue)特(te)性(xing) 四(si)大創(chuang)新突(tu)破(po) 训练过程(cheng) 低(di)成本且(qie)環(huan)境(jing)友(you)好! 最重(zhong)要的是——完全(quan)开源!

作为首个直播训练中文大模型,CPM-Ant 在大模型训练、微(wei)調(tiao)、壓(ya)縮(suo)、推理(li)、应用等(deng)环節(jie)均(jun)提供(gong)了一份(fen)可(ke)行(xing)的實(shi)踐(jian)方(fang)案(an),希(xi)望(wang)能为不同(tong)的關(guan)註(zhu)者提供不同的幫(bang)助(zhu)与參(can)考(kao)。

下(xia)面(mian),让我們(men)一起來(lai)看(kan)看 CPM-Ant 发布成果(guo)内容报告(gao)吧(ba)!

模型概(gai)覽(lan)

CPM-Ant 是一个开源的中文預(yu)训练語(yu)言(yan)模型,擁(yong)有(you) 10B 参數(shu),也是 CPM-Live 直播训练过程中的第(di)一个裏(li)程碑(bei)。

整(zheng)个训练过程低成本且环境友好,不需(xu)要高昂(ang)的硬(ying)件(jian)要求(qiu)和(he)運(yun)行成本,基(ji)于 增(zeng)量(liang)微调(delta tuning)方法(fa),在 CUGE 基準(zhun)測(ce)试中取得了優(you)異(yi)的結(jie)果。

CPM-Ant 相(xiang)关代(dai)碼(ma)、日誌(zhi)文件和模型参数在一个开放(fang)的許(xu)可協(xie)議(yi)下完全开源。除(chu)了完整的模型,OpenBMB 還(hai)提供了各(ge)種(zhong)压缩版(ban)本以適(shi)应不同的硬件配(pei)置(zhi)。

CPM-Ant 的五大卓越特性:

(1)計(ji)算(suan)高效(xiao)

通(tong)过 BMTrain[1] 工(gong)具(ju)包(bao),能夠(gou)充(chong)分(fen)利(li)用分布式计算資(zi)源的能力来高效训练大模型。

CPM-Ant 的训练持(chi)續(xu)了 68 天,花(hua)費(fei)了 43 萬(wan)人(ren)民(min)幣(bi),是谷(gu)歌(ge)训练 T5-11B 模型約(yue) 130 万美(mei)元费用的 1/20。训练 CPM-Ant 的溫(wen)室(shi)氣(qi)体排(pai)放量约为 4872kg CO?e,而(er)训练 T5-11B 的排放量为 46.7t CO?e[9] ,CPM-Ant 的方案约为其(qi)排放量的 1/10。

(2)性能优异

借(jie)助 OpenDelta[3] 工具,能够非(fei)常(chang)方便(bian)地(di)通过增量微调將(jiang) CPM-Ant 适配到下遊(you)任(ren)務(wu)。

实验表(biao)明(ming),CPM-Ant 僅(jin)仅微调了 6.3M 参数就在 3/6 个 CUGE 任务上(shang)取得了最好的结果。这一结果超(chao)越了其他(ta)全参数微调的模型,舉(ju)例(li)来说:CPM-Ant 的微调参数量仅为 CPM2(微调了 11B 参数) 的 0.06%。

(3)部(bu)署(shu)經(jing)濟(ji)

借助BMCook[7] 和 BMInf[4] 工具包,能够在有限(xian)的计算资源下驅(qu)動(dong) CPM-Ant。

基于 BMInf ,能够替(ti)代计算集(ji)群(qun) 在單(dan)塊(kuai) GPU 上進(jin)行大模型推理(即便是一块 GTX 1060 这樣(yang)的消(xiao)费級(ji)顯(xian)卡(ka))。为了使(shi) CPM-Ant 的部署更(geng)加(jia)经济, OpenBMB 使用 BMCook 进一步(bu)将原(yuan)始的 10B 模型压缩为不同的版本。压缩后的模型(7B,3B,1B,300M)能够适应不同低资源場(chang)景(jing)下的需求。

(4)使用便捷(jie)

不管(guan)是原始 10B 模型还是相关的压缩版本,通过幾(ji)行代码就能够輕(qing)松(song)地加載(zai)与运行。

OpenBMB 也會(hui)将 CPM-Ant 加入到 ModelCenter[8] 中,對(dui)模型的进一步开发会變(bian)得更加容易(yi)。

(5)开放民主(zhu)

CPM-Ant 的训练过程完全开放。

OpenBMB 发布了所(suo)有的代码、日志文件和模型存(cun)檔(dang)并提供开放獲(huo)取。CPM-Ant 也采(cai)用了允(yun)许商(shang)業(ye)化(hua)的开放许可协议。

一份完整的大模型训练实践

对于有能力进行大模型训练的廠(chang)商与研(yan)究(jiu)機(ji)構(gou),CPM-Ant 训练过程提供了一份完整的中文大模型训练实戰(zhan)記(ji)錄(lu)。

OpenBMB 发布了 CPM-Live 系(xi)列(lie)模型的 模型設(she)计、训练方案、数據(ju)需求和实现代码。基于 CPM-Live 的模型架(jia)构,能够方便快(kuai)速(su)地设计实现大模型训练方案并整理相关的业务数据,完成模型预研和数据准備(bei)工作。

官(guan)方網(wang)站(zhan)中记录了训练过程中的 全部训练动態(tai),包括(kuo)損(sun)失(shi)函(han)数、学習(xi)率(lv)、已(yi)学习数据、吞(tun)吐(tu)量、梯(ti)度(du)大小(xiao)、花费成本曲(qu)线,以及(ji)模型内部参数均值(zhi)和标准差(cha)实时展(zhan)示(shi),通过这些(xie)训练动态,使用者能够快速診(zhen)斷(duan)模型训练过程是否(fou)出现問(wen)题。

模型训练内部参数实时展示

此(ci)外(wai),OpenBMB 的研发同学每天实时更新 训练记录總(zong)结,总结内容包括损失值、梯度值、总体进展,还记录了遇(yu)到的一些问题和训练过程中的 bug,方便使用者提前(qian)了解(jie)模型训练过程中的可能会遇到的各种「坑(keng)」。

在模型训练「風(feng)平(ping)浪(lang)靜(jing)」的日子(zi),研发小哥(ge)也会拋(pao)出一些名言名句(ju)、介(jie)紹(shao)一些最新論(lun)文、甚(shen)至(zhi)发起猜(cai)謎(mi)活(huo)动。

日志中的一次猜谜活动

除此之外,OpenBMB 还提供了 成本经济 的 训练方案,对于实際(ji)有大模型训练需求的企(qi)业,通过相关训练加速技(ji)術(shu),训练成本已经降(jiang)低到可以接(jie)受(shou)的水(shui)平。

使用 BMTrain[1] 工具包,百亿大模型 CPM-Ant 训练的算力花费仅 43 万人民币(當(dang)前花费依(yi)照(zhao)公有雲(yun)價(jia)格(ge)计算,实际成本会更低),是 11B 大模型 T5 外界(jie)估(gu)算成本 130 万美元的约 1/20!

一份屢(lv)创 SOTA 的高效微调方案

CPM-Ant 如(ru)何(he)帮助我们进行下游任务适配?

对于大模型研究者,OpenBMB 提供了一份基于参数高效微调的大模型性能評(ping)测方案,方便快速进行下游任务适配并评测模型性能。

使用参数高效微调,即增量微调(delta tuning)来评估 CPM-Ant 在六(liu)个下游任务上的性能。实验中采用了 LoRA[2] ,它在每个注意(yi)層(ceng)中插(cha)入了兩(liang)个可调整的低秩(zhi)矩(ju)陣(zhen),并凍(dong)结了原始模型的所有参数。使用这种方法,每个任务只微调了 6.3M 的参数,仅占(zhan)总参数的 0.067%。

在 OpenDelta[3] 的帮助下,OpenBMB 进行了所有的实验,而沒(mei)有修(xiu)改(gai)原始模型的代码。需要指(zhi)出的是,在下游任务上评测 CPM-Ant 模型时,没有使用任何数据增強(qiang)的方法。实验结果如下表所示:

可以看到,在仅微调極(ji)少(shao)参数的情(qing)況(kuang)下,OpenBMB 的模型在三(san)个数据集上的性能已经超过了 CPM-2 和源 1.0。

有些任务(例如 LCSTS)在微调参数极少时可能会比(bi)較(jiao)难以学习, CPM-Live 的训练过程将会持续进行,在各个任务上的性能也会被(bei)进一步打(da)磨(mo)。

感(gan)興(xing)趣的同学,可訪(fang)问下方 GitHub 鏈(lian)接,搶(qiang)先体验下 CPM-Ant 和 OpenDelta,进一步探(tan)索(suo) CPM-Ant 在其他任务上的能力!

https://github.com/OpenBMB/CPM-Live

一系列硬件友好的推理方式

大模型性能固(gu)然(ran)驚(jing)艷(yan),但(dan)高昂的硬件要求和运行成本一直困扰著(zhe)许多(duo)使用者。对于大模型使用者,OpenBMB提供了一系列硬件友好的使用方式,能够较为方便地在不同硬件环境下运行不同的模型版本。

使用 BMInf[4] 工具包, CPM-Ant 可以在单卡 1060 这样的 低资源环境 中运行!

除此之外,OpenBMB 还将 CPM-Ant 进行了压缩。这些压缩的模型包括 CPM-Ant-7B/3B/1B/0.3B。而所有这些模型压缩尺(chi)寸(cun)都可以对应于现有的开源预训练语言模型的经典(dian)尺寸。

考慮(lv)到用户可能会在发布的檢(jian)查(zha)點(dian)上进行进一步的开发,OpenBMB 主要使用 任务無(wu)关的结构化剪(jian)枝(zhi) 来压缩 CPM-Ant。剪枝过程也是漸(jian)进的,即從(cong) 10B 到 7B,从 7B 到 3B,从 3B 到 1B,最后从 1B 到 0.3B。

在具体的剪枝过程中,OpenBMB 会训练一个 动态的可学习的掩(yan)码矩阵,然后用这个掩码矩阵来 裁(cai)剪相应的参数。最后,根(gen)据掩码矩阵的閾(yu)值修剪参数,該(gai)阈值是根据目标稀(xi)疏(shu)度確(que)定(ding)的。更多压缩的細(xi)节可以参考技术博(bo)客(ke)[5] 。

下表展示了模型压缩的结果:

硬核(he)的内容講(jiang)完了,那(na)么大模型到底(di)怎(zen)么帮我们「取标题」呢(ne)?

一款(kuan)出乎(hu)意料(liao)的大模型趣味应用

基于 CPM-Ant,所有大模型开发者与愛(ai)好者都可以开发感兴趣的文本趣味应用。

为了进一步验證(zheng)模型的有效性并提供範(fan)例,OpenBMB 在 CPM-Ant 基礎(chu)上微调了一个 劲爆标题生成器 以展示模型能力。

只需要把正文内容粘(zhan)貼(tie)到下方文本框(kuang),一键点擊(ji)生成,就可以得到大模型提供的劲爆标题!

CPM-Ant 成果报告首发文章标题即由生成器生成

这款 demo将不断被打磨,并在未(wei)来添(tian)加更多的特殊(shu)效果,增强用户体验

感兴趣的用户也可以使用 CPM-Ant 构建(jian)自(zi)己(ji)的展示应用。如果有任何应用想法、需要技术支(zhi)持或(huo)者在使用 demo 过程中遇到任何问题,可以隨(sui)时在 CPM-Live 论壇(tan)[6] 发起討(tao)论!

CPM-Ant 的发布是 CPM-Live 的第一个里程碑,但也仅仅是训练的第一期(qi),未来OpenBMB还会繼(ji)续进行一系列训练。

簡(jian)单劇(ju)透(tou)一下,下一期的训练中将新增多语言支持、结构化输入输出等新特性,歡(huan)迎(ying)大家(jia)继续关注!

傳(chuan)送(song)門(men)|項(xiang)目链接

项目 GitHub 地址(zhi):

https://github.com/OpenBMB/CPM-Live

Demo 体验地址(仅限 PC 访问):

https://live.openbmb.org/ant

参考资料:

BMTrain: https://github.com/OpenBMB/BMTrain

LoRA: Low-Rank Adaptation of Large Language Models. ICLR 2021.

OpenDelta: https://github.com/thunlp/OpenDelta

BMInf: https://github.com/OpenBMB/BMInf

技术博客:https://www.openbmb.org/community/blogs/blogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92

CPM-Live 论坛:

https://github.com/OpenBMB/CPM-Live/discussions/categories/application-ideas-%E5%BA%94%E7%94%A8%E6%83%B3%E6%B3%95

BMCook: https://github.com/OpenBMB/BMCook

Model Center: https://github.com/OpenBMB/ModelCenter

《Carbon emissions and large neural network training》. https://arxiv.org/pdf/2104.10350.pdf返(fan)回(hui)搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:湖北武汉蔡甸区