关于各大广告创意案例的书

概述

广告是商业中不可或缺的一环,各大品牌商通过不同形式的广告推广自己的产品和服务。而成功的广告创意往往能够吸引消费者的眼球,激发他们的购买欲望。在这篇博客中,我们将回顾一些成功的广告创意案例,并探讨它们为什么能够引起消费者的共鸣。

创意案例一:Lego “Build the Future”

Lego创意广告

这个广告创意来自于Lego,它的广告口号是“Build the Future”,呼吁年轻人学习编程。在广告中,Lego以一个小男孩为主角,他在使用Lego积木搭建未来城市的过程中,学习了编程知识,最终完成了一个可动的机器人。这个广告创意不仅展示了Lego玩具的用途,还向年轻人传递了学习编程的重要性。

创意案例二:Coca-Cola “Share a Coke”

Coca-Cola创意广告

这个广告创意来自于Coca-Cola,它的主题是“Share a Coke”,即分享一瓶可乐。在广告中,Coca-Cola将各种不同的名字印在可乐瓶上,消费者可以选择与自己的朋友、家人或同事分享一瓶带有他们名字的可乐。这个广告创意吸引了大量消费者的注意力,他们可以通过购买一瓶带有自己名字的可乐来表达对朋友、家人或同事的情感。

创意案例三:Apple “Think Different”

Apple创意广告

这个广告创意来自于Apple,它的广告口号是“Think Different”,即与众不同。在广告中,Apple展示了一些著名的创新者和思想家,如阿尔伯特·爱因斯坦、马丁·路德·金、约翰·列侬等等。这个广告创意强调了Apple的创新精神,让消费者对Apple品牌产生了更加积极的认同感。

结论

通过以上三个广告创意案例的分析,我们发现成功的广告创意往往能够引起消费者的共鸣。它们不仅展示了产品和服务的各种用途,还能够传递品牌的价值观和文化。通过运用不同的广告手段和创意,品牌商可以吸引更多的消费者,并建立更加美好的品牌形象。

关于各大广告创意案例的书特色

1、超强大的驯龙魔法师:缓速地带祝福领域神形分离等等,强力魔法训练龙战队;

2、发红包,想发就发谁,朋友多了路好走;

3、可以很好的满足每个用户朋友的收藏需求,提供的产品非常丰富。

4、用户也可以在软件上在线填写志愿,而不是去卡顿的网站填写。

5、特色的竞技战斗玩法模式,实时PK副本激战热血;

关于各大广告创意案例的书亮点

1、相当精彩的游戏玩法,小心路上的障碍物,考验你手速的时刻到了。

2、你可以提前录下他们的声音,这样你就可以通过应用的转换机制来理解他们。

3、分为简单,一般,困难等多种模式供你选择,都很有挑战性。

4、【国外争霸战】加入国家的玩家,可与国内玩家争夺该国王位!

5、炫丽的视效表现,众多的玩法内容;

chaoqiangdadexunlongmofashi:huansudidaizhufulingyushenxingfenlidengdeng,qianglimofaxunlianlongzhandui;fahongbao,xiangfajiufashui,pengyouduoleluhaozou;keyihenhaodemanzumeigeyonghupengyoudeshouzangxuqiu,tigongdechanpinfeichangfengfu。yonghuyekeyizairuanjianshangzaixiantianxiezhiyuan,erbushiqukadundewangzhantianxie。tesedejingjizhandouwanfamoshi,shishiPKfubenjizhanrexue;BLIP-2、InstructBLIP穩(wen)居(ju)前(qian)三(san)!十(shi)二(er)大(da)模(mo)型(xing),十六(liu)份(fen)榜(bang)單(dan),全(quan)面(mian)測(ce)評(ping)「多(duo)模態(tai)大語(yu)言(yan)模型」

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】在(zai)私(si)域(yu)數(shu)據(ju)、感(gan)知(zhi)能(neng)力(li)、簡(jian)潔(jie)指(zhi)令(ling)、定(ding)量(liang)統(tong)計(ji)方(fang)面比(bi)拼(pin)多模态大语言模型。

多模态大语言模型(Multimodal Large Language Model,MLLM)依(yi)賴(lai)於(yu)LLM豐(feng)富(fu)的(de)知識(shi)儲(chu)備(bei)以(yi)及(ji)強(qiang)大的推(tui)理(li)和(he)泛(fan)化(hua)能力來(lai)解(jie)決(jue)多模态問(wen)題(ti),目(mu)前已(yi)經(jing)湧(yong)現(xian)出(chu)壹(yi)些(xie)令人(ren)驚(jing)嘆(tan)的能力,比如(ru)看(kan)圖(tu)寫(xie)作(zuo)和看图写代(dai)碼(ma)。

但(dan)僅(jin)根(gen)据這(zhe)些樣(yang)例(li)很(hen)難(nan)充(chong)分(fen)反(fan)映(ying)MLLM的性(xing)能,目前仍(reng)然(ran)缺(que)乏(fa)對(dui)MLLM的全面评测。

為(wei)此(ci),騰(teng)訊(xun)優(you)图實(shi)驗(yan)室(shi)聯(lian)合(he)廈(sha)門(men)大學(xue)在新建(jian)的评测基(ji)準(zhun)MM上(shang)首(shou)次(ci)对现有(you)12種(zhong)開(kai)源(yuan)MLLM模型進(jin)行(xing)了(le)全面定量评测並(bing)公(gong)布(bu)了16個(ge)排(pai)行榜,包(bao)含(han)感知和認(ren)知兩(liang)个總(zong)榜以及14个子(zi)榜单:

論(lun)文(wen)鏈(lian)接(jie):https://arxiv.org/pdf/2306.13394.pdf

項(xiang)目链接:https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models/tree/Evaluation

现有MLLM的定量评测方法(fa)主(zhu)要(yao)分为三類(lei),但都(dou)存(cun)在一定的局(ju)限(xian)导致(zhi)难以全面反映其(qi)性能。

第(di)一类方法在傳(chuan)统的公开数据集(ji)上进行评测,例如图像(xiang)描(miao)述(shu)(Image Caption)和視(shi)覺(jiao)问答(da)(VQA)数据集。

但一方面这些传统数据集可(ke)能难以反映MLLM涌现的新能力,另(ling)一方面由(you)于大模型時(shi)代的訓(xun)練(lian)集都不(bu)再(zai)统一,因(yin)此难以保(bao)證(zheng)这些评测数据集沒(mei)有被(bei)其他(ta)MLLM训练過(guo)。

第二种方式(shi)是(shi)收(shou)集新的数据进行开放(fang)式评测,但这些数据要麽(me)未(wei)公开[1],要么数量太(tai)少(shao)(仅有50張(zhang))[2]。

第三种方式聚(ju)焦(jiao)于MLLM的某(mou)个特(te)定方面,比如物(wu)體(ti)幻(huan)觉(Object Hallucination)[3]或(huo)者(zhe)对抗(kang)魯(lu)棒(bang)性[4],無(wu)法做(zuo)全面评测。

目前亟(ji)需(xu)一个全面的评测基准来匹(pi)配(pei)MLLM的快(kuai)速(su)發(fa)展(zhan)。研(yan)究(jiu)人員(yuan)认为一个通(tong)用(yong)的全面评测基准應(ying)該(gai)具(ju)有以下(xia)特點(dian):

(2)数据或者標(biao)註(zhu)应该盡(jin)可能避(bi)免(mian)采(cai)用已有的公开数据集,以減(jian)少数据泄(xie)露(lu)的風(feng)險(xian)。

(3)指令应该尽可能简洁并且(qie)符(fu)合人类的认知習(xi)慣(guan)。不同(tong)的指令設(she)计可能會(hui)極(ji)大影(ying)響(xiang)模型的輸(shu)出,但所(suo)有的模型都在统一的简洁指令下进行评测可以保证公平(ping)性。一个好(hao)的MLLM模型应该具备泛化到(dao)这种简洁指令上的能力,避免陷(xian)入(ru)Prompt Engineering。

(4)MLLM在该简洁指令下的输出应该是直(zhi)觀(guan)的并且便(bian)于定量统计。MLLM开放式的回(hui)答給(gei)量化统计提(ti)出了很大挑(tiao)戰(zhan)。现有方法傾(qing)向(xiang)于使(shi)用GPT或者人工(gong)打(da)分,但可能面臨(lin)著(zhe)不准確(que)和主观性的问题。

图1. MME评测基准示(shi)例。每(mei)张图片(pian)对应两个问题,答案(an)分別(bie)为Yes[Y]和No[N]。问题加(jia)上「Please answer yes or no」共(gong)同構(gou)成(cheng)指令。

基于以上原(yuan)因,一个新的MLLM评测基准MME被构建出来,它(ta)同时具备以上四(si)个特点:

2. MME中(zhong)所有的指令-答案对都是人工构建的。对于少量使用到的公开数据集,仅使用其图像而(er)没有依赖其原始(shi)标注。同时, 研究人员也(ye)尽力通过人工拍(pai)攝(she)和图像生(sheng)成的方式来采集数据。

3. MME的指令被设计得(de)尽量简洁以避免Prompt Engineering对模型输出的影响。 研究人员再次申(shen)明(ming)一个好的MLLM应该泛化到这种简洁且使用頻(pin)繁(fan)的指令,这对所有模型都是公平的。图1中顯(xian)示了每个子任(ren)務(wu)的指令。

4. 得益(yi)于指令设计「Please answer yes or no」,可以方便地(di)根据模型输出的「Yes」或「No」进行定量统计,这种方式可以同时保证准确性和客(ke)观性。值(zhi)得注意(yi)的是, 研究人员也嘗(chang)試(shi)过设计選(xuan)擇(ze)题的指令,但发现當(dang)前的MLLM還(hai)难以跟(gen)隨(sui)这类較(jiao)为復(fu)雜(za)的指令。

研究人员一共评测了12种先(xian)进的MLLM模型,包括(kuo)BLIP-2 [5]、LLaVA [6]、MiniGPT-4 [7]、 mPLUG-Owl [2]、LLaMA-Adapter-v2 [8]、Otter [9]、Multimodal-GPT [10]、InstructBLIP [11]、 VisualGLM-6B [12], PandaGPT [13], ImageBind-LLM [14] 和 LaVIN [15]。

其中,统计指标有三种,包括Accuracy,Accuracy+和Score。其中对于每个任务,Accuracy是基于问题统计而来,Accuracy+是基于图片统计而来(图片对应的两个问题都需要回答正(zheng)确),Score是Accuracy和Accuracy+的和。

感知的总分为10种感知类子任务Score的总和,认知的总分是4种认知类任务Score的总和。具体詳(xiang)見(jian)项目链接。

12种模型在14种子任务上的测试比较如图2所示:

图2. 12种模型在14种子任务上的比较。每种子任务的滿(man)分为200分。

一共16个榜单,包括感知类和认知类的总榜单以及14个子任务的榜单也已发布。两个总榜单分别如图3和图4所示,值得注意的是BLIP-2和InstructBLIP在这两个榜单中都保持(chi)在前三。

图3.感知类任务总榜单

图4.认知类任务总榜单

图5.所有榜单

另外(wai) 研究人员也总結(jie)了MLLM模型在实验中暴(bao)露的一些通用问题,如图6所示,希(xi)望(wang)可以为後(hou)續(xu)的模型优化提供(gong)指导。

图6. MLLM暴露的通用问题。[Y]/[N]表(biao)示真(zhen)实的答案是Yes/No。[R]是MLLM生成的答案。

第一个问题是不跟随指令。

尽管(guan)已经采用了非(fei)常(chang)简洁的指令设计,但仍然有MLLM自(zi)由回答问题而不是跟随指令。

如图6中的第一行所示,指令已经申明「Please answer yes or no」,但MLLM仅给出了一个陳(chen)述性回答。如果(guo)在回答的开頭(tou)没有出现「Yes」或者「No」,都判(pan)定该回答錯(cuo)誤(wu)。一个好的MLLM,尤(you)其是经过指令微(wei)調(tiao)后,应该能夠(gou)泛化到这种简单的指令上。

第二个问题是缺乏感知能力。

第三个问题是缺乏推理能力。

如图6中的第三行所示,從(cong)紅(hong)色(se)的文字(zi)可以看出MLLM已经知道了第一张图片不是一个辦(ban)公場(chang)所,但仍然给出了一个错误的回答「Yes」。

相(xiang)似(si)地,在第二张图片中,MLLM已经计算(suan)得到了正确的算数结果,但最(zui)終(zhong)也给出了错误的答案。添(tian)加思(si)維(wei)链Prompt,例如「Let’s think step by step」也許(xu)能帶(dai)来更(geng)好的效(xiao)果。期(qi)待(dai)这方面有更深(shen)入的研究。

第四个问题跟随指令的物体幻视。如图6中的第四行所示,当指令中含有图片中不存在的物体时,MLLM將(jiang)会幻想(xiang)该物体存在并最终给出一个「Yes」的回答。

这种总是回答「Yes」的方式导致了Accuracy接近(jin)于50%,Accuracy+接近于0。这表明抑(yi)制(zhi)目标幻视的重(zhong)要性,并且也需要进一步(bu)思考(kao)MLLM生成的答案的可靠(kao)性。

參(can)考資(zi)料(liao):

[1] Zijia Zhao, Longteng Guo, Tongtian Yue, Sihan Chen, Shuai Shao, Xinxin Zhu, Zehuan Yuan, and Jing Liu. Chatbridge: Bridging modalities with large language model as a language catalyst. arXiv preprint:2305.16103, 2023.

[2] Qinghao Ye, Haiyang Xu, Guohai Xu, Jiabo Ye, Ming Yan, Yiyang Zhou, Junyang Wang, Anwen Hu, Pengcheng Shi, Yaya Shi, et al. mplug-owl: Modularization empowers large language models with multimodality. arXiv preprint:2304.14178, 2023.

[3] Yifan Li, Yifan Du, Kun Zhou, Jinpeng Wang, Wayne Xin Zhao, and Ji-Rong Wen. Evaluating object hallucination in large vision-language models. arXiv preprint:2305.10355, 2023.

[4] Yunqing Zhao, Tianyu Pang, Chao Du, Xiao Yang, Chongxuan Li, Ngai-Man Cheung, and Min Lin. On evaluating adversarial robustness of large vision-language models. arXiv preprint:2305.16934, 2023.

[5] Junnan Li, DongxuLi, Silvio Savarese, and Steven Hoi. Blip-2: Bootstrapping language-image pre-training with frozen image encoders and large language models. arXiv preprint:2301.12597, 2023.

[6] Haotian Liu, Chunyuan Li, Qingyang Wu, and Yong Jae Lee. Visual instruction tuning. arXiv preprint:2304.08485, 2023.

[7] Deyao Zhu, Jun Chen, Xiaoqian Shen, Xiang Li, and Mohamed Elhoseiny. Minigpt-4: Enhancing vision-language understanding with advanced large language models. arXiv preprint:2304.10592, 2023.

[8] Peng Gao, Jiaming Han, Renrui Zhang, Ziyi Lin, Shijie Geng, Aojun Zhou, Wei Zhang, Pan Lu, Con- ghui He, Xiangyu Yue, et al. Llama-adapter v2: Parameter-efficient visual instruction model. arXiv preprint:2304.15010, 2023.

[9] Bo Li,Yuanhan Zhang, Liangyu Chen, Jinghao Wang, Jingkang Yang,and ZiweiLiu. Otter: Amulti-modal model with in-context instruction tuning. arXiv preprint:2305.03726, 2023.

[10] Tao Gong, Chengqi Lyu, Shilong Zhang, Yudong Wang,Miao Zheng, Qian Zhao, Kuikun Liu, Wenwei Zhang, Ping Luo, and Kai Chen. Multimodal-gpt: A vision and language model for dialogue with humans. arXiv preprint:2305.04790, 2023.

[11] Wenliang Dai, Junnan Li, Dongxu Li, Anthony Meng Huat Tiong, Junqi Zhao, Weisheng Wang, Boyang Li, Pascale Fung, and Steven Hoi. Instructblip: Towards general-purpose vision-language models with instruction tuning. arXiv preprint:2305.06500, 2023.

[12] Visualglm-6b. https://github.com/THUDM/VisualGLM-6B, 2023.

[13] Yixuan Su, Tian Lan, Huayang Li, Jialu Xu, Yan Wang, and Deng Cai. Pandagpt: One model to instruction-follow them all. arXiv preprint:2305.16355, 2023.

[14] Imagebind-llm. https://github.com/OpenGVLab/LLaMA-Adapter/tree/main/imagebind_LLM, 2023.

[15] Gen Luo, Yiyi Zhou, Tianhe Ren, Shengxin Chen, Xiaoshuai Sun, and Rongrong Ji. Cheap and quick: Efficient vision-language instruction tuning for large language models. arXiv preprint:2305.15023, 2023.返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:江西宜春铜鼓县