产品宣传平面广告

产品宣传平面广告现状

现代社会充斥着各种广告形式,从电视广告到户外广告,从电台广告到在线广告,无处不在。而其中最传统的广告形式之一就是产品宣传平面广告。如今,这种广告形式依然广泛使用,因为它可以在有限的空间内展示产品的特点和优势,同时传达品牌形象。但是,随着消费者对广告越来越挑剔和要求越来越高,产品宣传平面广告需要不断创新和改进,以吸引目标群体的注意力。

产品宣传平面广告

如何打造有效的产品宣传平面广告

在创建产品宣传平面广告时,有几个因素需要考虑,以确保广告能够达到其预期的目的。

1.明确目标受众

首先,必须明确广告的目标受众。了解目标受众的年龄、性别、兴趣和购买习惯等信息,有助于确定广告的设计和内容。例如,如果你的目标受众是年轻的女性,那么广告设计可能更加花哨,色彩更加亮丽,内容更加注重个性化和情感化。

目标受众

2.抓住观众的注意力

在创建产品宣传平面广告时,必须考虑如何抓住观众的注意力。一种常见的方法是使用有吸引力的图像和字体,以及简洁明了的文本。此外,广告的独特性和创意性也是吸引观众的重要因素。

抓住观众的注意力

3.传达清晰的信息

广告的另一个关键因素是传达清晰的信息。不要让广告变得混乱或难以理解。使用简单的语言和易于理解的图像,以确保观众可以快速地理解广告的内容。

传达清晰的信息

总结

产品宣传平面广告是一种传统但仍然有效的广告形式。要打造一个有效的广告,必须考虑观众的注意力、目标受众和传达的信息。此外,创造性和独特性也是吸引观众的关键因素。在创建广告时,务必遵守中国广告法和道德准则,以确保广告的合法性和诚信性。

总结

产品宣传平面广告特色

1、内存编辑器界面有小修改

2、游戏模式多种多样,玩法新颖,学习最新的暗黑魔法,挑战最强大的敌人。

3、给你带来更高品质的保障,加上动听无比的音乐氛围带来沉浸式的体验;

4、游戏中虽然采用像素方块风格但是精心打造的地图让玩家感受到不一样的像素游戏。

5、像素的游戏风格,感受不同的塔防玩法,超多的塔防设计玩法都可以随时进行体验更有趣。

产品宣传平面广告亮点

1、经典的游戏场景,经典的游戏人物,经典的武器装备。

2、要有耐心去培养,去看,你必须赢,这很重要,一些特技策略是可用的。

3、无限组合的焰火模拟游戏,甚至可以保存烟花视频。

4、高清精致的人物建模,美轮美奂的魔幻场景,精彩炫丽的动态光效;

5、真实的天气和人物系统,你可以体验在任何的天气下驾驶火车

neicunbianjiqijiemianyouxiaoxiugaiyouximoshiduozhongduoyang,wanfaxinying,xuexizuixindeanheimofa,tiaozhanzuiqiangdadediren。geinidailaigenggaopinzhidebaozhang,jiashangdongtingwubideyinlefenweidailaichenjinshidetiyan;youxizhongsuirancaiyongxiangsufangkuaifenggedanshijingxindazaodediturangwanjiaganshoudaobuyiyangdexiangsuyouxi。xiangsudeyouxifengge,ganshoubutongdetafangwanfa,chaoduodetafangshejiwanfadoukeyisuishijinxingtiyangengyouqu。不(bu)要(yao)think step by step!谷(gu)歌(ge)最(zui)新(xin)自(zi)然(ran)語(yu)言(yan)推(tui)理(li)算(suan)法(fa)LAMBADA:「反(fan)向(xiang)鏈(lian)推理」才(cai)是(shi)答(da)案(an)

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】谷歌發(fa)布(bu)全(quan)新反向推理算法LAMBADA,無(wu)懼(ju)搜(sou)索(suo)空(kong)間(jian)爆(bao)炸(zha)!

自動(dong)推理絕(jue)對(dui)算是自然语言處(chu)理領(ling)域(yu)的(de)壹(yi)大(da)難(nan)題(ti),模(mo)型(xing)需(xu)要根(gen)據(ju)給(gei)定(ding)的前(qian)提(ti)和(he)知(zhi)識(shi)推导出(chu)有(you)效(xiao)且(qie)正(zheng)確(que)的結(jie)論(lun)。

盡(jin)管(guan)近(jin)年(nian)來(lai)NLP领域借(jie)著(zhu)(zhe)大規(gui)模預(yu)訓(xun)練(lian)语言模型在(zai)各(ge)種(zhong)「自然语言理解(jie)」如(ru)閱(yue)读理解和問(wen)答等(deng)任(ren)務(wu)中(zhong)取(qu)得(de)了(le)極(ji)高(gao)的性(xing)能(neng),但(dan)這(zhe)些(xie)模型在邏(luo)辑推理方(fang)面(mian)的性能仍(reng)然十(shi)分(fen)滯(zhi)後(hou)。

去(qu)年5月(yue)「思(si)維(wei)链」(Chain of Thought, CoT)橫(heng)空出世(shi),有研(yan)究(jiu)人(ren)員(yuan)发現(xian),只(zhi)需要在prompt中加(jia)入(ru)「Let's think step by step」就(jiu)能讓(rang)GPT-3的推理性能大幅(fu)提升(sheng),比(bi)如在MultiArith中就將(jiang)推理準(zhun)确率(lv)從(cong)之(zhi)前的17.7%一下(xia)提升到(dao)了78.7%

但諸(zhu)如CoT和Selection Inference等方法都(dou)是以(yi)前向(forward direction)的方式(shi)从公(gong)理(axioms)中搜索證(zheng)明(ming)過(guo)程(cheng)(proof)以推导出最終(zhong)结论(conclusion),存(cun)在搜索空间組(zu)合(he)爆炸的问题,因(yin)此(ci)对於(yu)較(jiao)長(chang)的推理链,失(shi)敗(bai)率较高。

最近,Google Research開(kai)发了一种反向链(Backward Chaining)算法LAMBADA(LAnguage Model augmented BAckwarD chAining),将經(jing)典(dian)推理文(wen)獻(xian)中得出的「反向推理效率明顯(xian)高于前向推理」这一结论應(ying)用(yong)于语言模型(LM)中。

论文链接(jie):https://arxiv.org/abs/2212.13894

LAMBADA将推理过程分解為(wei)四(si)個(ge)子(zi)模塊(kuai),每(mei)个模块都由(you)few-shot prompted语言模型推理實(shi)现。

最终LAMBADA相(xiang)比當(dang)下sota的前向推理方法在兩(liang)个逻辑推理數(shu)据集(ji)上(shang)实现了显著的性能提升,特(te)別(bie)是在问题要求(qiu)深(shen)度(du)和准确的证明链情(qing)況(kuang)下,LAMBADA的性能提升更(geng)加明显。

「反向推理」成(cheng)版(ban)本(ben)答案?

逻辑推理,特别是对非(fei)结構(gou)化(hua)自然文本的逻辑推理,是构建(jian)自动知识发现的基(ji)礎(chu)构件(jian),也(ye)是未(wei)来各种科(ke)學(xue)领域進(jin)步(bu)的關(guan)鍵(jian)。

雖(sui)然許(xu)多(duo)NLP任务的发展(zhan)都受(shou)益(yi)于预训练语言模型不斷(duan)擴(kuo)大的规模,但根据觀(guan)察(cha),提升模型的尺(chi)寸(cun)对解決(jue)復(fu)雜(za)推理问题的提升十分有限(xian)。

在经典文献中,有两种主(zhu)要的逻辑推理方法:

1、前向链式推理(Forward Chaining, FC),即(ji)从事(shi)实和规則(ze)出发,在做(zuo)出新的推理並(bing)将其(qi)加入理论之间进行(xing)叠(die)代(dai),直(zhi)到目(mu)標(biao)陳(chen)述(shu)可(ke)以被(bei)证明或(huo)推翻(fan);

2、后向链式推理(Backward Chaining, BC),即从目标出发,将其遞(di)歸(gui)分解为子目标,直到子目标可以根据事实被证明或推翻。

以前用语言模型进行推理的方法大多采(cai)用前向链式推理的思路(lu),要求从整(zheng)个集合中選(xuan)擇(ze)一个事实和规则的子集,这对LM来說(shuo)可能是困(kun)难的,因为它(ta)需要在一个大的空间裏(li)进行组合搜索。

此外(wai),决定何(he)時(shi)停(ting)止(zhi)搜索并宣(xuan)布证明失败在FC中也是非常(chang)困难的,有时甚(shen)至(zhi)需要一个專(zhuan)門(men)对中间标簽(qian)进行训练的模块。

事实上,经典的自动推理文献在很(hen)大程度上偏(pian)重(zhong)于后向链式推理或目标导向的求证策(ce)略(lve)。

LAMBADA

LAMBADA意(yi)为「反向链式技(ji)術(shu)增(zeng)強(qiang)的语言模型」,研究人员通(tong)过实驗(yan)证明了BC更適(shi)合于基于文本的演(yan)繹(yi)逻辑推理(deductive logical reasoning)。

BC不需要大量(liang)的组合搜索来选择子集,而(er)且有更自然的停止搜索标准(halting criteria)。

LAMBADA主要专註(zhu)于对事实进行自动推理,即自然语言断言,如「好(hao)人是紅(hong)色(se)的」,这些断言是連(lian)貫(guan)的(coherent),但不一定基于真(zhen)实情况。

一个规则由自然语言聲(sheng)明编寫(xie),形(xing)式上可以改(gai)写为「如果(guo)P那(na)麽(me)Q」,例(li)如「粗(cu)暴(bao)的好人是红色的」(Rough, nice people are red)可以改写为「如果一个人是粗暴的好人,那么他(ta)們(men)是红色的」(If a person is rough and nice, then they are red)。

其中P被稱(cheng)为规则的前項(xiang)(antecedent),Q被称为规则的后项(consequent)。

一个理论theory C由事实F={f1, f2, . . , fn}和规则R={r1, r2, . . , rm}组成,G代表(biao)一个想(xiang)根据事实和规则来证明或反駁(bo)的目标。

例1、一个帶(dai)有虛(xu)构角(jiao)色和规则的理论实例C

F={"菲(fei)奧(ao)娜(na)是好人","菲奥娜是粗人"}

R={"如果某(mou)人很聰(cong)明,那么他就是好人","粗暴的好人是红色的","作(zuo)为好人和红色意味(wei)着他是圓(yuan)的"}。

基于上述理论,人们可能想证明或反驳一个目标,如「菲奥娜是红色的?」。

后向链法推理

一條(tiao)规则是否(fou)适用于一个目标,是通过逻辑学中的一个叫(jiao)做unification的操(cao)作来确定的。

例如,对于例1中的目标「Fiona是红色的?」,第(di)二(er)条规则的后果與(yu)目标相同(tong),所(suo)以可以适用;但另(ling)外两条规则的后果不同,所以不适用。

考(kao)慮(lv)例1中的理论和目标,BC从目标「Fiona是红色的?」开始(shi)推理。

首(shou)先(xian),BC验证該(gai)目标是否可以从任何事实中被证明或反驳。由于沒(mei)有任何事实可以证明或反驳这个目标,所以接下来會(hui)验证这个目标是否与任何规则的结果相統(tong)一,结果发现它与第二条规则「粗糙(cao)的好人是红色的」相统一。

因此,该目标可以被分解成两个子目标:1)菲奥娜是粗暴的嗎(ma)?和2)菲奥娜是好人吗?。

由于这两个子目标都可以从事实中得到证明,BC的结论是原(yuan)始目标可以得到证明。

对于一个目标,BC的结果要么是证明,要么是否定,要么是不知道(例如目标「菲奥娜很聪明?」)。

LAMBADA中的语言模型

为了将BC用于基于文本的推理,研究人员引(yin)入了四个基于LM的模块:事实檢(jian)查(zha)(Fact Check)、规则选择(Rule Selection)、目标分解(Goal Decomposition)和符(fu)號(hao)一致(zhi)性(Sign Agreement)。

事实检查

给出理论中的一组事实F和一个目标G,事实检查模块验证是否存在一个事实f∈F,使(shi)得f包(bao)含(han)G(在这种情况下,目标被证明)或者(zhe)f包含G的否定(在这种情况下,目标被否定)。

如果找(zhao)不到这樣(yang)的事实,那么G的真相仍然是未知的。

事实检查的实现包括(kuo)两个子模块:第一个子模块从与目标最相关的事实集中选择一个事实,第二个子模块根据这个事实来验证目标是否可以被证明或否定。

由于事实选择子模块在第一次(ci)嘗(chang)試(shi)时可能无法确定最佳(jia)的事实,如果在調(tiao)用子模块一輪(lun)后,目标的真相仍然未知,可以刪(shan)除(chu)所选的事实,然后再(zai)次调用子模块;这个过程可以重复多次。

规则选择

给出理论中的一组规则R和一个目标G,规则选择模块确定规则r∈R,使r的结果与G相统一,然后用这些规则将目标分解为子目标。

如果不能确定这样的规则,那么G的真相仍然是未知的。

规则选择同样包括两个子模块:第一个子模块确定每个规则的结果(与目标无关),第二个子模块将规则的结果和目标作为輸(shu)入,并确定哪(na)一个与目标相统一。

目标分解

给定一个规则r和一个目标G,使r的结果与G统一,目标分解模块确定需要证明的子目标,以使G被证明或被否定。

在成功(gong)证明r的前项的情况下,目标是被证明還(hai)是被否定取决于目标的符号(sign)是否与r的结果符号一致。

例如对于目标「Fiona是红色的?」,由于目标的符号与第二条规则的结果符号一致,并且规则的前项被证明,可以得出结论,目标被证明。

符号一致性

给定一个规则r和一个目标G,符号一致模块验证r的结果符号是否与目标的符号一致或不一致。

实验部(bu)分

研究人员选择Chain of Thought(CoT)、基于显式推理的sota神(shen)经推理方法、sota模块推理方法Selection Inference(SI)作为对比基線(xian)模型。

实验的数据集采用ProofWriter和PrOntoQA,这些数据集对LM推理具(ju)有挑(tiao)戰(zhan)性,包含需要证明链长度達(da)5跳(tiao)的例子,以及(ji)目标既(ji)不能从提供(gong)的理论中证明也不能反驳的例子。

实验结果显示(shi),LAMBADA明显優(you)于其他两个基线,特别是在包含UNKNOWN标签的ProofWriter-PUD数据集上(与CoT相比有44%的相对改善(shan),与SI在深度-5上相比有56%的改善),以及在PrOntoQA的较高深度上(与CoT相比有37%的相对改善,与SI在深度-5上相比有113%的改善)。

这些结果显示了LAMBADA在逻辑推理方面的优點(dian),也显示了后向链(在LAMBADA中是推理的backbone)与前向链(在SI中是backbone)相比可能是更好的选择。

这些结果还揭(jie)示了CoT方法在处理UNKNOWN标签时的一个缺(que)陷(xian):与标签为证明(PROVED)或否定(DISPROVED)的例子不同,对于标签为UNKNOWN的例子,没有自然的思维链。

对于更深(3+)的证明链问题上,在三(san)个数据集上,SI產(chan)生(sheng)的预測(ce)接近于多数類(lei)预测。

可以发现,在二元情况下,它傾(qing)向于过度预测DISPROVED;在三元分类情况下,倾向于过度预测UNKNOWN,这使得它在PrOntoQA的深度-5中的表现甚至比多数类更差(cha),因为该深度的PROVED标签比DISPROVED多。

不过研究人员也驚(jing)訝(ya)地(di)发现,CoT对于ProofWriterPD数据集的性能仍然相对较高,而且准确率没有降(jiang)低(di)。

總(zong)之,在这些数据集上,LAMBADA具有更高的推理准确性,与其他用虚假(jia)的证明痕(hen)跡(ji)找到正确结论的技术相比,LAMBADA更有可能产生有效的推理链,同时也比其他基于LM的模块化推理方法更有查詢(xun)效率。

研究人员表示,该实验结果强烈(lie)地表明,未来关于用LM进行推理的工(gong)作应该包括后向链或目标导向的策略。

參(can)考資(zi)料(liao):

https://arxiv.org/abs/2212.13894返(fan)回(hui)搜狐(hu),查看(kan)更多

責(ze)任编辑:

发布于:福建漳州南靖县