创意平面广告

什么是创意平面广告

创意平面广告是指将商品信息或品牌理念以视觉和文字的形式呈现在平面媒介上,例如海报、杂志广告、报纸广告等。创意平面广告的目的是通过视觉效果吸引受众的注意力,传达信息,提高品牌认知度和销售效果。

创意平面广告

创意平面广告的成功在于设计。一个创意十足的平面广告可以吸引消费者的注意力,并让他们记住品牌、商品或服务。因此,在设计平面广告时,需要考虑目标受众、品牌形象、信息传递方式和视觉效果等因素。

创意平面广告的设计技巧

创意平面广告的设计技巧很多,以下是一些常用的技巧:

1. 简洁明了

创意平面广告的信息应该尽量简洁明了,让消费者在3秒钟内就能理解品牌、商品或服务的特点和优势。简洁的信息可以让广告更易于记忆。

简洁明了的广告

2. 突出重点

广告中需要突出品牌或商品的重点,例如特色、优惠、功能等。可以通过文字、图片或配色等方式来突出重点,引导受众关注。

突出重点的广告

3. 与目标受众相关

广告的目的是吸引目标受众。因此,在设计广告时,需要考虑目标受众的年龄、性别、兴趣等因素,来确定设计风格和内容。

与目标受众相关的广告

创意平面广告的成功在于设计。一个创意十足的平面广告可以吸引消费者的注意力,并让他们记住品牌、商品或服务。因此,在设计平面广告时,需要考虑目标受众、品牌形象、信息传递方式和视觉效果等因素。

创意平面广告的案例

以下是一些成功的创意平面广告案例,值得借鉴:

1. 伊利纯牛奶

伊利纯牛奶的广告以“我的纯”为主题,通过纯净的视觉效果和简洁的语言,表达了纯牛奶的品质和健康的概念。广告中使用的形象和色彩与目标受众相关,突出了纯牛奶的特色。

伊利纯牛奶广告

2. 沃尔玛

沃尔玛的广告以“节省更多”为主题,通过视觉效果和文字呈现了沃尔玛的价格优势。广告中使用了突出重点的技巧,让消费者在第一时间就可以看到价格优势,吸引消费者前来购物。

沃尔玛广告

通过以上案例,我们可以看到一个成功的创意平面广告需要考虑目标受众、品牌形象、信息传递方式和视觉效果等因素。设计师需要花费时间和精力来研究受众和市场,才能设计出成功的创意平面广告。

结论

创意平面广告是传达信息和吸引消费者的重要手段。一个成功的创意平面广告需要考虑目标受众、品牌形象、信息传递方式和视觉效果等因素。通过突出重点、简洁明了和与目标受众相关等技巧,可以设计出成功的创意平面广告。设计师需要花费时间和精力来研究受众和市场,才能设计出成功的创意平面广告。

创意平面广告设计

创意平面广告特色

1、开始游戏后,在屏幕任意地方用手指按住,屏幕都会显示虚拟的操纵杆,

2、视频精致五官视频捏脸术,仙女的颜360度无死角。

3、我的基金产品、自选基金:电脑、手机智能同步,随时随地一键查看

4、含有多种功能服务,用户可以根据自己的需求,任意在线选择性使用;

5、可以直接在平台下单自己的目的地,会被自动安排就近接单。

创意平面广告亮点

1、通过互联网发布招聘信息,轻松发现合适的招聘信息。

2、五一/国庆/春节:各种传统节假日提醒,提前做好假期游玩计划吧

3、大量不同的模式,每种模式都需要不同的地形来躲避敌人的火力。

4、游戏里有很多有趣的东西,有很多有趣的故事,等待着你去解锁。

5、这款游戏中还有各种和角色来互动的玩法,有各种的对话都非常的不错;

kaishiyouxihou,zaipingmurenyidifangyongshouzhianzhu,pingmudouhuixianshixunidecaozonggan,shipinjingzhiwuguanshipinnielianshu,xiannvdeyan360duwusijiao。wodejijinchanpin、zixuanjijin:diannao、shoujizhinengtongbu,suishisuidiyijianzhakanhanyouduozhonggongnengfuwu,yonghukeyigenjuzijidexuqiu,renyizaixianxuanzexingshiyong;keyizhijiezaipingtaixiadanzijidemudedi,huibeizidonganpaijiujinjiedan。回(hui)歸(gui)OpenAI後(hou)首(shou)次(ci)演(yan)講(jiang)!李(li)飛(fei)飞高(gao)徒(tu)Andrej Karpathy:GPT將(jiang)走(zou)向(xiang)何(he)方(fang)?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):Joey

【新智元導(dao)讀(du)】今(jin)年(nian)的(de)微(wei)軟(ruan)Build開(kai)發(fa)者(zhe)大(da)會(hui)不(bu)僅(jin)放(fang)出(chu)王(wang)炸(zha)更(geng)新——Windows Copilot,特(te)斯(si)拉(la)前(qian)AI總(zong)監(jian)Andrej Karpathy的演讲也(ye)发表(biao)了(le)題(ti)為(wei)GPT現(xian)狀(zhuang)的演讲,看(kan)點(dian)多(duo)多。

壹(yi)年一度(du)的微软「Build开发者大会」前兩(liang)天(tian)剛(gang)刚开幕(mu)。

微软CEO Satya Nadella在(zai)发布(bu)会上(shang)介(jie)紹(shao)了這(zhe)次主(zhu)要(yao)的更新,以(yi)ChatGPT为代(dai)表的生(sheng)成(cheng)式(shi)AI成为本(ben)次大会的重(zhong)中(zhong)之(zhi)重,其(qi)中包(bao)括(kuo)自(zi)家(jia)的重頭(tou)戲(xi)——Windows Copilot。

演讲視(shi)頻(pin)鏈(lian)接(jie):https://youtu.be/6PRiAexITSs

前段(duan)時(shi)間(jian)刚宣(xuan)布回归OpenAI的業(ye)界(jie)大牛(niu)、李飞飞高徒、特斯拉前AI总监Andrej Karpathy,也在大会发表了题为「GPT现状」(State of GPT)的主题演讲。

演讲內(nei)容(rong)主要包括了解(jie)ChatGPT等(deng)GPT助(zhu)手(shou)的訓(xun)練(lian)途(tu)徑(jing),他(ta)将其分(fen)为標(biao)記(ji)化(hua)(Tokenization)、預(yu)训练(Pretraining)、监督(du)微調(tiao)(Supervised Finetuning)和(he)人(ren)類(lei)反(fan)饋(kui)強(qiang)化學(xue)習(xi) (RLHF)幾(ji)步(bu)。

另(ling)外(wai),他還(hai)闡(chan)釋(shi)了有(you)效(xiao)使(shi)用(yong)这些(xie)模(mo)型(xing)的實(shi)用技(ji)術(shu)和心(xin)智模型的方法(fa),包括提(ti)示(shi)策(ce)略(lve)(Prompting Strategies)、微调(Finetuning)、快(kuai)速(su)增(zeng)長(chang)的工(gong)具(ju)生態(tai)系(xi)統(tong)及(ji)其未(wei)來(lai)的擴(kuo)展(zhan)。

演讲的视频链接小(xiao)编也放在下(xia)面(mian)啦(la),幹(gan)貨(huo)滿(man)满一起(qi)来看看~

视频链接:https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2

GPT助手的训练途径

在進(jin)行(xing)预训练之前,有2個(ge)準(zhun)備(bei)步驟(zhou)。

首先(xian)是(shi)數(shu)據(ju)收(shou)集(ji)——從(cong)不同(tong)来源(yuan)獲(huo)取(qu)大量(liang)数据,下圖(tu)展示的是通(tong)過(guo)Meta LLaMA模型从Github、維(wei)基(ji)百(bai)科(ke)等来源收集的混(hun)合(he)数据。

接下来就(jiu)是标记化,将文(wen)本中的單(dan)詞(ci)标记並(bing)轉(zhuan)換(huan)为整(zheng)数。

然(ran)后他用两个模型做(zuo)了个對(dui)比(bi),相(xiang)比175B參(can)数的GPT-3在300B个代幣(bi)上训练,而(er)65B参数的LLaMA已(yi)經(jing)在1-1.4T个代币上训练。

證(zheng)明(ming)了「并不是参数大的模型性(xing)能(neng)就强」。

预训练階(jie)段

Andrej Karparthy首先介绍了一下预训练中Transformer的工作(zuo)原(yuan)理(li)。

然后向我(wo)們(men)展示了GPT模型如(ru)何通过不斷(duan)叠(die)代,更准確(que)地(di)预測(ce)莎(sha)士(shi)比亞(ya)詩(shi)句(ju)中的单词。

順(shun)便(bian)重点强调了一下自家LLaMA模型的牛掰(bai)之處(chu),从下图的训练曲(qu)線(xian)中可(ke)以看出LLaMA在训练損(sun)失(shi)方面明顯(xian)要比傳(chuan)统GPT-2要低(di)上不少(shao)。

另外圍(wei)繞(rao)GPT-2,許(xu)多学者註(zhu)意(yi)到(dao),如果(guo)我们以特定(ding)方式構(gou)建(jian)提示,并提供(gong)一些示例(li),那(na)麽(me)基礎(chu)模型将自動(dong)完(wan)成我们在提示中提供的指(zhi)令(ling)。

基础模型不是助手,他们不会「根(gen)据妳(ni)的提問(wen)回答(da)」,他们只(zhi)会自动完成文本。

比如在下面这篇(pian)文本裏(li),对於(yu)人类提出的问题,模型通过輸(shu)入(ru)的「Few-shot提示」讓(rang)它(ta)誤(wu)以为他它自动完成了人工智能和人类之间的聊(liao)天。

Andrej接下来畫(hua)出了GPT模型的进化樹(shu),可以看到頂(ding)端(duan)的模型包括谷(gu)歌(ge)的Bard,Meta的LLaMA。

监督微调

通过使用交(jiao)换数据集训练模型,我们得(de)到了监督微调后的模型,簡(jian)稱(cheng)SFT模型。

但(dan)SFT模型还不是很(hen)好(hao),絕(jue)对達(da)不到ChatGPT質(zhi)量,于是训练繼(ji)續(xu)。

我们使用SFT模型生成问题输出,通过用戶(hu)对三(san)个版(ban)本的比較(jiao)得出排(pai)名(ming)最(zui)佳(jia)的版本,然后根据用户的選(xuan)擇(ze)对模型进行重新训练。

而这些決(jue)策是根据用户的反馈而得出的,例如當(dang)你在ChatGPT中对问题的答案(an)点擊(ji)??或(huo)??,或选择重新生成響(xiang)應(ying),这也是RLHF(人类反馈强化学习)的基础。

有趣(qu)的是,Andrej談(tan)到的RLHF并不是对基本模型的嚴(yan)格(ge)改(gai)进,因(yin)为RLHF模型的熵(shang)较小,因此(ci)它的創(chuang)造(zao)性可能较少。

基础模型在生成答案的多樣(yang)性方面可能比微调模型更優(you)秀(xiu),例如下图生成的100个寶(bao)可夢(meng)的名字(zi),基础模型能給(gei)你更多想(xiang)要的答案。

最后,Andrej展示了伯(bo)克(ke)利(li)大学的校(xiao)友(you)制(zhi)作的輔(fu)助模型的「野(ye)榜(bang)」,OpenAI的GPT-4似(si)乎(hu)是目(mu)前最优秀的。

Andrej接下来展示了人类和GPT模型在处理一个相同的句子(zi)的处理过程(cheng)。

人腦(nao)对「加(jia)州(zhou)的人口(kou)是阿(e)拉斯加州的53倍(bei)」这句話(hua)的处理要经歷(li)提取信(xin)息(xi)、事(shi)实核(he)查(zha)、計(ji)算(suan)、再(zai)次驗(yan)证等过程。

然而对GPT来說(shuo)他要做的就是自动完成文本,沒(mei)有内在的思(si)考(kao)对话。

而像(xiang)Chain of thought「思维链」这样的方法可以为模型提供更多标记或更多思考时间。

这将使模型展示它的工作原理,并给它思考时间以获得更好的答案。

最后还展示了ChatGPT中插(cha)件(jian)工具的用法。

演讲最后,Andrej再再再次强调了LLaMA就是迄(qi)今最优秀的模型,另外@YannLecun希(xi)望(wang)他能盡(jin)快将其推(tui)出商(shang)用。

参考資(zi)料(liao):

https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2返(fan)回搜(sou)狐(hu),查看更多

責(ze)任(ren)编辑:

发布于:山东青岛胶南市