创意广告长版文字

创意广告长版文字:如何让品牌与消费者产生深度共鸣?

广告是企业推销产品与服务的重要手段,创意广告长版文字更是让品牌与消费者产生深度共鸣的有效方式。如何打造一篇优质的创意广告长版文字?本文将为您介绍一些技巧,帮助您创建一篇吸引人的广告。

品牌故事:让消费者产生情感共鸣

品牌故事是创意广告长版文字不可或缺的元素之一,它可以让消费者在购买商品或服务时产生情感共鸣。品牌故事不仅可以展示企业的历史和文化,还可以诠释品牌精神和价值观。

举个例子,假设您是一家销售茶叶的企业,您可以将品牌故事设置在一个中国古老的村庄上。您可以讲述这个村庄传承了几百年的茶叶制作技艺,并且这个村庄的茶叶是全球最好的。您可以在品牌故事中强调您的产品是由这个村庄的村民亲手制作的,以此突出您的产品的质量和传统。

茶叶制作过程

通过品牌故事的讲述,消费者可以更好地理解您的产品或服务,更加信任和认可您的品牌。

利用关键词:提高网站搜索引擎排名

为了让您的创意广告长版文字更加优化,您必须在内容中使用关键词。关键词是指潜在客户在搜索引擎中使用的词语,这些词语可以让您的网站排名更高。

举个例子,如果您是一家销售健身器材的企业,您可以在您的创意广告长版文字中使用关键词“健身器材”,“健身房”,“健身教练”等词语。这些关键词将有助于提高您的网站在搜索引擎中的排名,让更多的潜在客户发现您的品牌。

健身器材展示

但是要注意的是,关键词不应该过度使用,否则可能会被搜索引擎判定为垃圾信息。请务必合理使用关键词,让文章内容更加自然流畅。

创新设计:让广告更加吸引人

创新设计是吸引消费者眼球的关键。创意广告长版文字需要有吸引人的视觉效果,这样消费者才会愿意停下来仔细阅读。

举个例子,如果您是一家销售玩具的企业,您可以在创意广告长版文字中添加一些图片或者视频,展示玩具的使用场景或者玩具的特点。您还可以采用动画或者3D效果设计,让广告更加生动有趣。

玩具使用场景展示

但是要注意的是,创新设计不能过度,否则可能会分散消费者的注意力。请务必合理运用创新设计,让广告更加吸引人。

结论

创意广告长版文字不仅可以让品牌与消费者产生深度共鸣,还可以提高网站在搜索引擎中的排名。在创作广告时,我们需要打造一个有吸引力的品牌故事,合理运用关键词,运用创新设计。只有这样,我们才能打造一篇优质的创意广告长版文字。

创意广告长版文字随机日志

新增虚拟形象换装;修复了一些bug;

1、适合应届毕业生的岗位招聘信息也有,让广大急着找工作的人都能如愿以偿;

2、您可以管理内部存储和外部存储上的所有文件和文件夹。

3、积分商城全新改版,更多好礼换不停,新增推币信息,可查看充值与消费记录,解决部分下载出现错误的问题,优化其他细节问题

4、在编辑页面中,您可以通过右侧上方来设置文章的封面,请注意,封面只能使用文章中包含的图片,并且图片不能小于0000像素,您可以选择自动封面模式,但是由于平台的限制,微信公众号和大鱼号不支持自动封面模式。

5、您可以在文章同步页面点击新建图文来创建一篇文章,此时助手会打开文章编辑页面,该页面如下图所示。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>兩(liang)位(wei)谷(gu)歌(ge)華(hua)人(ren)研(yan)究(jiu)員(yuan)發(fa)布(bu)首(shou)個(ge)純(chun)視(shi)覺(jiao)「移(yi)動(dong)UI理(li)解(jie)」模(mo)型(xing),四(si)大(da)任(ren)務(wu)刷(shua)新(xin)SOTA

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】無(wu)需(xu)對(dui)象(xiang)信(xin)息(xi),首个纯视觉UI理解解決(jue)方(fang)案(an)!

对移动設(she)備(bei)UI的(de)理解,能(neng)夠(gou)幫(bang)助(zhu)實(shi)現(xian)各(ge)種(zhong)人機(ji)交(jiao)互(hu)任务,比(bi)如(ru)UI自(zi)动化(hua)等(deng)。

不(bu)過(guo)並(bing)不是(shi)所(suo)有(you)的場(chang)景(jing)下(xia)都(dou)有可(ke)用(yong)的视圖(tu)層(ceng)次(ci),這(zhe)种方法(fa)通(tong)常(chang)會(hui)因(yin)為(wei)对象描(miao)述(shu)的缺(que)失(shi)或(huo)結(jie)構(gou)信息的錯(cuo)位而(er)輸(shu)出(chu)错誤(wu)结果(guo),所以(yi)盡(jin)管(guan)使(shi)用视图层次结构可以提(ti)升(sheng)短(duan)期(qi)性(xing)能,但(dan)最(zui)終(zhong)可能会阻(zu)礙(ai)模型的適(shi)用性和(he)泛(fan)化性能。

最近(jin)Google Research的两位研究人员提出了(le)壹(yi)个可用於(yu)移动端(duan)UI理解的纯视觉方法Spotlight,在(zai)视觉語(yu)言(yan)模型的基(ji)礎(chu)上(shang),只(zhi)需要(yao)將(jiang)用戶(hu)界(jie)面(mian)的截(jie)图和屏(ping)幕(mu)上的一个感(gan)興(xing)趣(qu)的區(qu)域(yu)(focus)作(zuo)为输入(ru)即(ji)可。

論(lun)文(wen)鏈(lian)接(jie):https://arxiv.org/pdf/2209.14927.pdf

Spotlight的这种通用架(jia)构很(hen)容(rong)易(yi)擴(kuo)展(zhan),并且(qie)能够執(zhi)行(xing)一系(xi)列(lie)的用户界面建(jian)模任务。

文中(zhong)的实驗(yan)结果表(biao)明(ming),Spotlight模型在幾(ji)个有代(dai)表性的用户界面任务上均(jun)達(da)到(dao)了sota的性能,成(cheng)功(gong)超(chao)越(yue)之(zhi)前(qian)使用屏幕截图和视图层次结构作为输入的方法。

此(ci)外(wai),文中還(hai)探(tan)索(suo)了Spotlight模型的多(duo)任务學(xue)習(xi)和few-shot提示(shi)的能力(li),在多任务学习方向(xiang)上也(ye)展现出了有前景的实验结果。

论文作者(zhe)Yang Li是谷歌研究中心(xin)的高(gao)級(ji)研究员,也是华盛(sheng)頓(dun)大学 CSE 的附(fu)屬(shu)教(jiao)员,在中國(guo)科(ke)学院(yuan)獲(huo)得(de)計(ji)算(suan)机科学博(bo)士(shi)学位,并在加(jia)州(zhou)大学伯(bo)克(ke)利(li)分(fen)校(xiao) EECS 進(jin)行博士後(hou)研究。他(ta)領(ling)导開(kai)发了下一个 Android 應(ying)用程(cheng)序(xu)預(yu)測(ce),也是 Android 上在设备上交互机器(qi)学习的先(xian)驅(qu),还开发手(shou)勢(shi)搜(sou)索等。

Spotlight:理解手机界面

对用户界面的计算理解是实现智能 UI 行为的關(guan)鍵(jian)一步(bu)。

在此之前,該(gai)團(tuan)隊(dui)研究过各种 UI 建模任务,包(bao)括(kuo)窗(chuang)口(kou)標(biao)題(ti)(widget)、屏幕摘(zhai)要(screen summarization)和command grounding,这些(xie)任务解决了不同(tong)交互场景下的自动化和可訪(fang)問(wen)性问题。

后續(xu)还利用这些功能演(yan)示了机器学习如何(he)帮助「用户體(ti)验從(cong)業(ye)者」通过診(zhen)斷(duan)可點(dian)擊(ji)性混(hun)淆(xiao)來(lai)提高 UI 質(zhi)量(liang),并为改(gai)进 UI 设计提供(gong)思(si)路(lu),所有这些工(gong)作與(yu)其(qi)他领域的工作共(gong)同展现了深(shen)度(du)神(shen)經(jing)網(wang)絡(luo)是如何潛(qian)在地(di)改變(bian)终端用户的体验及(ji)交互设计实踐(jian)。

Spotlight模型也是对这个问题的解决方案进行的第(di)一次嘗(chang)試(shi),研究人员开发了一个多任务模型来同時(shi)處(chu)理一系列 UI 任务,尽管工作上取(qu)得了一些进展,但仍(reng)存(cun)在一些難(nan)题。

之前的 UI 模型嚴(yan)重(zhong)依(yi)賴(lai)于 UI 视图层次结构,也就(jiu)是移动端 UI 屏幕的结构或元數(shu)據(ju),比如网頁(ye)的文檔(dang)对象模型(Document Object Model),模型直(zhi)接获取屏幕上 UI 对象的詳(xiang)細(xi)信息,包括類(lei)型、文本(ben)內(nei)容和位置(zhi)等。

这种元数据使得以前的模型相(xiang)对于纯视觉的模型来說(shuo)更(geng)有優(you)势,但视图层次结构数据的可访问性是一大难题,对象描述缺失或结构信息对齊(qi)不當(dang)等问题经常发生(sheng)。

因此,尽管使用视图层次结构可以获得短期收(shou)益(yi),但它(ta)最终可能会阻碍模型的性能和适用性。此外,之前的模型必(bi)須(xu)处理跨(kua)数据集(ji)和跨 UI 任务的異(yi)构信息,往(wang)往会导致(zhi)更復(fu)雜(za)的模型体系结构,最终难以跨任务扩展或泛化。

Spotlight模型

纯视觉的Spotlight方法旨(zhi)在完(wan)全(quan)从原(yuan)始(shi)像(xiang)素(su)中实现通用的用户界面理解能力。

研究人员引(yin)入了一个統(tong)一的方法来表示不同的 UI 任务,其中的信息可以通用地表示为两种核(he)心模式(shi):视觉和语言,其中视觉模式捕(bu)获用户从 UI 屏幕上看(kan)到的内容,语言模式可以是自然(ran)语言或任何与任务相关的token序列。

Spotlight 模型输入为一个三(san)元組(zu):屏幕快(kuai)照(zhao)、屏幕上感兴趣的区域和任务的文本描述;输出是关于感兴趣区域的文本描述或響(xiang)应。

模型的这种簡(jian)單(dan)的输入和输出表示更加通用,可以适用于各种 UI 任务,并且可扩展到多种模型架构上。

模型设计上能够进行一系列的学习策(ce)略(lve)和设置,从特(te)定(ding)任务的微(wei)調(tiao),到多任务学习和few-shot学习。

Spotlight 模型能够利用了现有的架构构建模塊(kuai),比如 ViT 和 T5,这些模块在高資(zi)源(yuan)的通用视觉语言领域中进行了预訓(xun)練(lian),可以直接在这些通用领域模型之上进行模型构建。

因为 UI 任务通常与屏幕上的特定对象或区域有关,模型需要能够聚(ju)焦(jiao)于对象或感兴趣的区域,研究人员将焦点区域抽(chou)取器(Focus Region Extractor)引入到视觉语言模型中,使模型能够根(gen)据屏幕上下文聚焦于该区域。

研究人员还设计了一个区域總(zong)结器(Region Summarizer),通过使用区域邊(bian)界框(kuang)生成的註(zhu)意(yi)力query来获得基于 ViT 编碼(ma)的屏幕区域的潜在表征(zheng)。

具(ju)体来说,就是每(mei)个坐(zuo)标(标量值(zhi),包括左(zuo),上,右(you)或底(di)部(bu))的边界框,在屏幕截图中表示为黃(huang)色(se)框。

首先通过一个多层感知(zhi)机(MLP)将输入轉(zhuan)換(huan)为作为一个稠(chou)密(mi)向量的集合(he),然后反(fan)饋(kui)給(gei)Transformer模型,根据坐标类型获取嵌(qian)入向量(coordinate-type embedding),对稠密向量及其相应的坐标类型嵌入进行顏(yan)色编码,以表明它們(men)与每个坐标值之間(jian)的关系。

然后坐标查(zha)詢(xun)(Coordinate queries)通过「交叉(cha)注意力」參(can)与 ViT 输出的屏幕编码,最终Transformer的注意力输出被(bei)用作 T5下遊(you)解码的区域表示。

实验结果

研究人员使用两个沒(mei)有无标簽(qian)的(unlabeled)数据集对Spotlight模型进行预训练,分別(bie)是基于 C4语料(liao)庫(ku)的内部数据集和一个内部移动数据集,总共包含(han)250萬(wan)个移动 UI 屏幕和8000万个网页。

然后分别針(zhen)对四个下游任务,标题、摘要、grouding和可点击性,对预训练后的模型进行微调。

对于窗口标题(widget captioning)和屏幕摘要任务,使用CIDEr指(zhi)标来衡(heng)量模型文本描述与評(ping)分者創(chuang)建的一组参考(kao)的相似(si)程度;对于command grounding任务,準(zhun)確(que)率(lv)指标为模型响应用户命(ming)令(ling)成功定位目(mu)标对象的百(bai)分比;对于可点击性预测,使用 F1分数来衡量模型区分可点击对象和不可点击对象的能力。

实验中,将 Spotlight 与几个基准模型进行了比較(jiao):WidgetCaption 使用视图层次结构和每个 UI 对象的图像为对象生成文本描述;Screen2Words 使用视图层次结构和屏幕截图以及輔(fu)助功能(例(li)如,应用程序描述)来为屏幕生成摘要;VUT 结合了屏幕截图和视图层次结构来执行多个任务;原始的 Tappability 模型利用来自视图层次结构的对象元数据和屏幕快照来预测对象的 Tappability.

Spotlight 在四个 UI 建模任务中大大超越了之前的sota模型。

在一个更有难度的任务设置中,要求(qiu)模型同时学习多个任务,因为多任务模型可以極(ji)大減(jian)少(shao)模型的能源消(xiao)耗(hao)(model footprint),结果表明,Spotlight模型的性能仍然具有競(jing)爭(zheng)力。

为了理解区域总结器(Region Summarizer)如何使 Spotlight 能够聚焦于屏幕上的目标区域和相关区域,研究人员分析(xi)了窗口标题和屏幕总结任务的注意力權(quan)重,能够指示出模型注意力在屏幕截图上的位置。

在下图中,对于窗口标题任务,模型在预测「選(xuan)擇(ze)切(qie)爾(er)西(xi)队」(select Chelsea team)时,左側(ce)的复选框用紅(hong)色边框突(tu)出顯(xian)示,可以从右边的注意力熱(re)力图中看到,模型不僅(jin)学会了注意复选框的目标区域,还学会了关注最左边的文本「Chelsea」来生成标题。

对于屏幕摘要任务,模型预测「页面显示一个学习应用程序的教程」(page displaying the tutorial of a learning app),并给出左侧的截图,示例中,目标区域是整(zheng)个屏幕,模型可以学习处理屏幕上的重要部分以进行摘要。

参考资料:

https://ai.googleblog.com/2023/02/a-vision-language-approach-for.html返(fan)回(hui)搜狐(hu),查看更多

責(ze)任编辑:

发布于:江西上饶上饶县