地铁数字广告:让你的品牌随处可见!

让你的品牌随处可见!

随着数字化时代的到来,广告投放的方式也发生了翻天覆地的变化。地铁数字广告作为其中的一种,逐渐受到企业们的青睐。本文将从效果、覆盖、成本和趋势四个方面,为你解析地铁数字广告的魅力所在。

效果:借力城市交通客流量实现精准广告投放

地铁数字广告作为一种基于智能化、互联网化的新型广告媒介,其最大的优势在于利用地铁交通客流量实现精准广告投放。地铁交通客流量本就是城市的重要组成部分,通过地铁数字广告,广告主将拥有更加精准的观众,并能够轻松进行位置、时间、人群等多维度的广告投放。同时,地铁数字广告还可以借助触摸屏、VR、AR等多种形式,吸引更多用户的关注和参与。这让地铁数字广告成为了提高广告效果的一大利器。

覆盖:地铁数字广告涵盖城市关键节点

地铁数字广告的另一个优势在于其覆盖面的广阔。地铁数字广告可以关注城市的关键节点,涵盖城市的各个重要区域。同时,在地铁数字广告的投放过程中,广告主可以通过大数据分析,更精准地把握用户的行为和需求,从而在各种人群、各个场景中展示广告。这也为企业提高品牌曝光度,提升营销效果提供了广泛的空间。

成本:地铁数字广告成本低廉,回报显著

相比于传统广告媒介,地铁数字广告的成本较低。传统广告媒介常常需要投入较多的资金,而地铁数字广告则可以根据广告主的需求,灵活调整广告投放范围和广告主题,以达到最佳的营销效果。在运作成本方面,地铁数字广告不需要大量的人力和物力的投入,广告主也无需承担过高的广告制作和投放费用。这让地铁数字广告成为小型企业和创业企业的首选投放方式。同时,由于地铁数字广告的盈利模式与地铁运营商的合作,其回报也相对显著。

趋势:数字化时代下,地铁数字广告将越来越成为主流

数字化时代的到来,为地铁数字广告的发展提供了广阔的舞台。随着人们移动方式的多样化和信息获取方式的变革,地铁数字广告将成为未来主流的广告媒介之一。随着更多数码屏幕在地铁内投入,并且随着更多的用户走进地铁,地铁数字广告将变得越来越重要。同时,随着人口和城市的增长,地铁数字广告的市场规模也将呈指数级增长。在未来数字化时代,地铁数字广告将成为越来越多广告主不可或缺的一环。

总结归纳

作为数字化时代的广告投放方式,地铁数字广告利用精准化的客流量实现更好的广告展示效果,涵盖城市的关键节点,成本低廉,回报显著,趋势也越来越成为主流。随着地铁数字广告市场的不断发展,带来的商业机会和营销价值也将变得越来越重要。因此,企业应积极探索地铁数字广告投放的机会,创造更多的商业价值,提升品牌影响力。

问答话题

地铁数字广告的覆盖面有多大?地铁数字广告的覆盖面非常广泛。它可以关注城市的关键节点,涵盖城市的各个重要区域。同时,地铁数字广告投放过程中,广告主可以通过大数据分析,更精准地把握用户的行为和需求,从而在各种人群、各个场景中展示广告。地铁数字广告相比传统广告媒介,广告成本是否更低?是的,地铁数字广告相比于传统广告媒介,其成本更低。地铁数字广告不需要大量的人力和物力的投入,广告主也无需承担过高的广告制作和投放费用,且可以根据广告主的需求,灵活调整广告投放范围和广告主题,以达到最佳的营销效果。

地铁数字广告:让你的品牌随处可见!特色

1、安全守护在身边,安全功能多重保障,安心又贴心

2、您可以轻松了解实时在线兑换,及时了解其中最完整的兑换服务信息

3、【网易自营直采】

4、这里有你回家的道路!

5、多人对战,竞技捕鱼,紧张刺激。

地铁数字广告:让你的品牌随处可见!亮点

1、修复Android0系统上通知图标规则无法自动更新问题

2、经典的像素风格沙盒类游戏,享受高自由度的沙盒创造。

3、酷炫神兵,华丽羽翼,炫丽特效,打造全服第一人;

4、用户信息管理:跟系统一相似。

5、管理桌名,容纳人数,生成菜单二维码。

anquanshouhuzaishenbian,anquangongnengduozhongbaozhang,anxinyoutiexinninkeyiqingsonglejieshishizaixianduihuan,jishilejieqizhongzuiwanzhengdeduihuanfuwuxinxi【wangyiziyingzhicai】zheliyounihuijiadedaolu!duorenduizhan,jingjibuyu,jinzhangciji。論(lun)文(wen)插(cha)圖(tu)也(ye)能(neng)自(zi)動(dong)生(sheng)成(cheng)了(le),用(yong)到(dao)了擴(kuo)散(san)模(mo)型(xing),還(hai)被(bei)ICLR接(jie)收(shou)

如(ru)果(guo)论文中(zhong)的(de)图表(biao)不(bu)用繪(hui)制(zhi),對(dui)於(yu)研(yan)究(jiu)者(zhe)來(lai)說(shuo)是(shi)不是壹(yi)種(zhong)便(bian)利(li)呢(ne)?有(you)人(ren)在(zai)這(zhe)方(fang)面(mian)進(jin)行(xing)了探(tan)索(suo),利用文本(ben)描(miao)述(shu)生成论文图表,結(jie)果还挺(ting)有模有樣(yang)的呢!

編(bian)輯(ji):杜(du)偉(wei)、梓(zi)文

图片(pian)来源(yuan):由(you)無(wu)界(jie) AI 生成

生成式(shi) AI 已(yi)經(jing)風(feng)靡(mi)了人工(gong)智(zhi)能社(she)區(qu),无论是個(ge)人还是企(qi)業(ye),都(dou)開(kai)始(shi)熱(re)衷(zhong)于創(chuang)建(jian)相(xiang)關(guan)的模態(tai)轉(zhuan)換(huan)應(ying)用,比(bi)如文生图、文生視(shi)頻(pin)、文生音(yin)樂(le)等(deng)等。

最(zui)近(jin)呢,来自 ServiceNow Research、LIVIA 等科(ke)研機(ji)構(gou)的幾(ji)位(wei)研究者嘗(chang)試(shi)基(ji)于文本描述生成论文中的图表。為(wei)此(ci),他(ta)們(men)提(ti)出(chu)了一种 FigGen 的新(xin)方法(fa),相关论文还被 ICLR 2023 收錄(lu)为了 Tiny Paper。

论文地(di)址(zhi):https://arxiv.org/pdf/2306.00800.pdf

也許(xu)有人會(hui)問(wen)了,生成论文中的图表有什(shen)麽(me)難(nan)的呢?这样做(zuo)对于科研又(you)有哪(na)些(xie)幫(bang)助(zhu)呢?

科研图表生成有助于以(yi)簡(jian)潔(jie)易(yi)懂(dong)的方式傳(chuan)播(bo)研究结果,而(er)自动生成图表可(ke)以为研究者帶(dai)来很(hen)多(duo)優(you)勢(shi),比如節(jie)省(sheng)時(shi)間(jian)和(he)精(jing)力(li),不用花(hua)大(da)力氣(qi)從(cong)頭(tou)开始設(she)計(ji)图表。此外(wai)设计出具(ju)有视覺(jiao)吸(xi)引(yin)力且(qie)易理(li)解(jie)的图表能使(shi)更(geng)多的人訪(fang)问论文。

然(ran)而生成图表也面臨(lin)一些挑(tiao)戰(zhan),它(ta)需(xu)要(yao)表示(shi)框(kuang)、箭(jian)头、文本等離(li)散組(zu)件(jian)之(zhi)间的復(fu)雜(za)关系(xi)。與(yu)生成自然图像(xiang)不同(tong),论文图表中的概(gai)念(nian)可能有不同的表示形(xing)式,需要細(xi)粒(li)度(du)的理解,例(li)如生成一个神(shen)经網(wang)絡(luo)图会涉(she)及(ji)到高(gao)方差(cha)的不適(shi)定(ding)问題(ti)。

因(yin)此,本文研究者在一个论文图表对數(shu)據(ju)集(ji)上(shang)訓(xun)練(lian)了一个生成式模型,捕(bu)獲(huo)图表组件与论文中对应文本之间的关系。这就(jiu)需要處(chu)理不同長(chang)度和高技(ji)術(shu)性(xing)文本描述、不同图表样式、图像长寬(kuan)比以及文本渲(xuan)染(ran)字(zi)體(ti)、大小(xiao)和方向(xiang)问题。

在具体實(shi)現(xian)過(guo)程(cheng)中,研究者受(shou)到了最近文本到图像成果的啟(qi)發(fa),利用扩散模型来生成图表,提出了一种从文本描述生成科研图表的潛(qian)在扩散模型 ——FigGen。

这个扩散模型有哪些獨(du)到之处呢?我(wo)们接著(zhe)往(wang)下(xia)看(kan)细节。

模型与方法

研究者从头开始训练了一个潜在扩散模型。

首(shou)先(xian)學(xue)習(xi)一个图像自动编碼(ma)器(qi),用来將(jiang)图像映(ying)射(she)为壓(ya)縮(suo)的潜在表示。图像编码器使用 KL 損(sun)失(shi)和 OCR 感(gan)知(zhi)损失。調(tiao)节所(suo)用的文本编码器在該(gai)扩散模型的训练中端(duan)到端进行学习。下表 3 为图像自动编码器架(jia)构的詳(xiang)细參(can)数。

然後(hou),该扩散模型直(zhi)接在潜在空(kong)间中进行交(jiao)互(hu),執(zhi)行数据损壞(huai)的前(qian)向调度,同时学习利用时间和文本條(tiao)件去(qu)噪(zao) U-Net 来恢(hui)复该过程。

至(zhi)于数据集,研究者使用了 Paper2Fig100k,它由论文中的图表文本对组成,包(bao)含(han)了 81,194 个训练样本和 21,259 个驗(yan)證(zheng)样本。下图 1 为 Paper2Fig100k 測(ce)试集中使用文本描述生成的图表示例。

模型细节

首先是图像编码器。第(di)一階(jie)段(duan),图像自动编码器学习一个从像素(su)空间到压缩潜在表示的映射,使扩散模型训练更快(kuai)。图像编码器还需要学习将潜在图像映射回(hui)像素空间,同时不丟(diu)失图表重(zhong)要细节(如文本渲染質(zhi)量(liang))。

为此,研究者定義(yi)了一个具有瓶(ping)頸(jing)的卷(juan)積(ji)编解码器,在因子(zi) f=8 时对图像进行下采(cai)样。编码器经过训练可以最小化(hua)具有高斯(si)分(fen)布(bu)的 KL 损失、VGG 感知损失和 OCR 感知损失。

其(qi)次(ci)是文本编码器。研究者发现通(tong)用文本编码器不太(tai)适合(he)生成图表任(ren)務(wu)。因此他们定义了一个在扩散过程中从头开始训练的 Bert transformer,其中使用大小为 512 的嵌(qian)入(ru)通道(dao),这也是调节 U-Net 的跨(kua)註(zhu)意(yi)力層(ceng)的嵌入大小。研究者还探索了不同设置(zhi)下(8、32 和 128)的 transformer 层数量的變(bian)化。

最后是潜在扩散模型。下表 2 展(zhan)示了 U-Net 的网络架构。研究者在感知上等效(xiao)的图像潜在表示中执行扩散过程,其中该图像的輸(shu)入大小被压缩到了 64x64x4,使扩散模型更快。他们定义了 1,000 个扩散步(bu)驟(zhou)和線(xian)性噪聲(sheng)调度。

训练细节

为了训练图像自动编码器,研究者使用了一个 Adam 优化器,它的有效批(pi)大小为 4 个样本、学习率(lv)为 4.5e?6,期(qi)间使用了 4 个 12GB 的英(ying)伟達(da) V100 顯(xian)卡(ka)。为了实现训练穩(wen)定性,他们在 50k 次叠(die)代(dai)中 warmup 模型,而不使用判(pan)別(bie)器。

对于训练潜在扩散模型,研究者也使用 Adam 优化器,它的有效批大小为 32,学习率为 1e?4。在 Paper2Fig100k 数据集上训练该模型时,他们用到了 8 塊(kuai) 80GB 的英伟达 A100 显卡。

实验结果

在生成过程中,研究者采用了具有 200 步的 DDIM 采样器,並(bing)且为每(mei)个模型生成了 12,000 个样本来计算(suan) FID, IS, KID 以及 OCR-SIM1。稳重使用无分類(lei)器指(zhi)導(dao)(CFG)来测试超(chao)调节。

下表 1 展示了不同文本编码器的结果。可見(jian),大型文本编码器產(chan)生了最好(hao)的定性结果,并且可以通过增(zeng)加(jia) CFG 的規(gui)模来改(gai)进条件生成。雖(sui)然定性样本沒(mei)有足(zu)夠(gou)的质量来解決(jue)问题,但(dan) FigGen 已经掌(zhang)握(wo)了文本和图像之间的关系。

下图 2 展示了调整(zheng)无分类器指导(CFG)参数时生成的額(e)外 FigGen 样本。研究者觀(guan)察(cha)到增加 CFG 的规模(这在定量上也得(de)到了体现)可以带来图像质量的改善(shan)。

下图 3 展示了 FigGen 的更多生成示例。要注意样本之间长度的变化,以及文本描述的技术水(shui)平(ping),这会密(mi)切(qie)影(ying)響(xiang)到模型正(zheng)確(que)生成可理解图像的难度。

不过研究者也承(cheng)認(ren),盡(jin)管(guan)现在这些生成的图表不能为论文作(zuo)者提供(gong)实際(ji)帮助,但仍(reng)不失为一个有前景(jing)的探索方向。返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:安徽宿州埇桥区