户外创意广告视频

户外创意广告视频:如何让观众对品牌产生兴趣?

户外创意广告视频是大多数品牌宣传活动中非常重要的一环。在如今的市场中,吸引观众的眼球和获得他们的注意力尤为关键。通过通过一个巧妙的创意广告视频,你的品牌可以与众不同地呈现出来,让观众心生兴趣并展开进一步的了解。本文将介绍户外创意广告视频的重要性,以及如何获得观众的注意力和兴趣。

户外创意广告视频

首先,户外创意广告视频是一种非常有效的品牌推广方式。通过视频的形式,品牌可以生动地展示出自己的特点和魅力,甚至可以展示品牌的精神和理念。这种形式的广告不仅能够吸引观众的眼球,还可以让观众更加深入地了解品牌本身。

其次,户外创意广告视频需要具备吸引观众的要素。视频的内容需要有趣、有创意、有表现力,并且能够引起观众的共鸣。一个好的创意广告视频可以在短短几秒钟内就让观众对品牌产生兴趣。因此,制作创意广告视频时需要注重视频的内容和呈现方式,尽可能地吸引观众的注意力。

如何制作一部成功的户外创意广告视频?

1.了解品牌的特点:首先需要了解品牌的特点和目标受众群体,以此为基础制作创意广告视频。只有深入了解品牌和目标受众,才能创造出更具吸引力的视频内容。

户外创意广告视频

2.注重视频的内容:在制作广告视频时,需要注重视频的内容。内容需要有趣、富有创意,能够引起观众的共鸣。视频的内容需要能够准确地表达品牌的理念和精神,同时也需要与目标受众产生共鸣。

3.特别的元素:制作成功的户外创意广告视频要注重细节和特别的元素。这些元素可以是一些小细节、一些特别的场景,也可以是一些特别的动画效果。这些元素可以让视频更加有趣,更加符合观众的口味。

结论

总之,户外创意广告视频是品牌推广中非常重要的一环。通过创意广告视频,品牌可以生动地展示出自己的特点和魅力,吸引观众的眼球和获得他们的注意力。制作好的户外创意广告视频需要注重视频的内容,特别的元素和细节,同时也需要深入了解品牌和目标受众。

户外创意广告视频

户外创意广告视频特色

1、动画视频:原创动画视频比声音和文字更有趣。

2、特效丰富:光影滤镜相框等等在线更新的上百种特效;

3、圈子:支持在线发布动态以及实时点赞评论;

4、醉游汉化盒子app下载

5、烹饪冒险途中会发现许多不同的可爱顾客!

户外创意广告视频亮点

1、采用了LZMA与LZMA算法的z压缩文件格式具有极高的压缩比;

2、【十炮百炮千炮,炮炮精彩】

3、可以设定视频录制页面的色调,根据各样录制方法使用和设计自己的日记。

4、多种任务目标等待您的挑战

5、暗黑之力将会激发鲜血重生,挂机战斗细腻的人物造型体验完美,非常独特的战斗之旅。

donghuashipin:yuanchuangdonghuashipinbishengyinhewenzigengyouqu。texiaofengfu:guangyinglvjingxiangkuangdengdengzaixiangengxindeshangbaizhongtexiao;quanzi:zhichizaixianfabudongtaiyijishishidianzanpinglun;zuiyouhanhuaheziappxiazaipengrenmaoxiantuzhonghuifaxianxuduobutongdekeaiguke!USB:首(shou)個(ge)將(jiang)視(shi)覺(jiao)、語(yu)言(yan)和(he)音(yin)頻(pin)分(fen)類(lei)任(ren)務(wu)進(jin)行(xing)統(tong)壹(yi)的(de)半(ban)監(jian)督(du)分类學(xue)習(xi)基(ji)準(zhun)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

作(zuo)者(zhe):王(wang)一棟(dong)、王晉(jin)東(dong)

編(bian)輯(ji):QQ

【新智元導(dao)讀(du)】微(wei)軟(ruan)亞(ya)洲(zhou)研(yan)究(jiu)院(yuan)的研究員(yuan)們(men)聯(lian)合(he)西(xi)湖(hu)大(da)学、东京(jing)工(gong)業(ye)大学、卡(ka)內(nei)基梅(mei)隆(long)大学、馬(ma)克(ke)斯(si)-普(pu)朗(lang)克研究所(suo)等(deng)機(ji)構(gou)的科(ke)研人(ren)员提(ti)出(chu)了(le) Unified SSL Benchmark(USB):第(di)一个将视觉、语言和音频分类任务进行统一的半监督分类学习基准。

當(dang)前(qian),半监督学习的發(fa)展(zhan)如(ru)火(huo)如荼(tu)。但(dan)是(shi)現(xian)有(you)的半监督学习基准大多(duo)局(ju)限(xian)於(yu)計(ji)算(suan)机视觉分类任务,排(pai)除(chu)了對(dui)自(zi)然(ran)语言處(chu)理(li)、音频处理等分类任务的一致(zhi)和多樣(yang)化(hua)評(ping)估(gu)。此(ci)外(wai),大部(bu)分半监督論(lun)文(wen)由(you)大型(xing)机构发表(biao),学術(shu)界(jie)的實(shi)驗(yan)室(shi)往(wang)往由于计算資(zi)源(yuan)的限制(zhi)而(er)很(hen)難(nan)參(can)與(yu)到(dao)推(tui)動(dong)該(gai)領(ling)域(yu)的发展中(zhong)。

為(wei)此,微软亚洲研究院的研究员们联合西湖大学、东京工业大学、卡内基梅隆大学、马克斯-普朗克研究所等机构的科研人员提出了 Unified SSL Benchmark(USB):第一个将视觉、语言和音频分类任务进行统一的半监督分类学习基准。

该论文不(bu)僅(jin)引(yin)入(ru)了更(geng)多样化的應(ying)用(yong)领域,還(hai)首次(ci)利(li)用视觉預(yu)訓(xun)練(lian)模(mo)型大大縮(suo)減(jian)了半监督算法(fa)的验證(zheng)時(shi)間(jian),使(shi)得(de)半监督研究对研究者,特(te)別(bie)是小(xiao)研究團(tuan)體(ti)更加(jia)友(you)好(hao)。相(xiang)關(guan)论文已(yi)被(bei)國(guo)際(ji)人工智能(neng)领域頂(ding)級(ji)学术大會(hui) NeurIPS 2022 接(jie)收(shou)。

文章(zhang)鏈(lian)接:https://arxiv.org/pdf/2208.07204.pdf

代(dai)碼(ma)链接:https://github.com/microsoft/Semi-supervised-learning

监督学习通(tong)過(guo)构建(jian)模型來(lai)擬(ni)合有標(biao)記(ji)數(shu)據(ju),当使用监督学习 (supervised learning)对大量(liang)高(gao)質(zhi)量的标记数据(labeled data)进行训练时,神(shen)經(jing)網(wang)絡(luo)模型会產(chan)生(sheng)有競(jing)爭(zheng)力(li)的結(jie)果(guo)。

例(li)如,据 Paperswithcode 网站(zhan)统计,在(zai) ImageNet 這(zhe)一百(bai)萬(wan)量级的数据集(ji)上(shang),傳(chuan)统的监督学习方(fang)法可(ke)以(yi)達(da)到超(chao)过88%的准確(que)率(lv)。然而,獲(huo)取(qu)大量有标簽(qian)的数据往往費(fei)时费力。

为了緩(huan)解(jie)对标註(zhu)数据的依(yi)賴(lai),半监督学习(semi-supervised learning/SSL)致力于在仅有少(shao)量的标注数据时利用大量無(wu)标签数据(unlabeled data)来提升(sheng)模型的泛(fan)化性(xing)。半监督学习亦(yi)是机器(qi)学习的重(zhong)要(yao)主(zhu)題(ti)之(zhi)一。深(shen)度(du)学习之前,这一领域的研究者们提出了諸(zhu)如半监督支(zhi)持(chi)向(xiang)量机、熵(shang)正(zheng)則(ze)化、協(xie)同(tong)训练等经典(dian)算法。

深度半监督学习

隨(sui)著(zhe)深度学习的興(xing)起(qi),深度半监督学习算法也(ye)取得了長(chang)足(zu)的进步(bu)。同时,包(bao)括(kuo)微软、谷(gu)歌(ge)、和 Meta 等在内的科技(ji)公(gong)司(si)也認(ren)識(shi)到了半监督学习在实际場(chang)景(jing)中的巨(ju)大潛(qian)力。

例如,谷歌利用噪(zao)聲(sheng)学生训练(noisy student training)这一半监督算法提高了其(qi)在搜(sou)索(suo)方面(mian)的性能[1]。当前最(zui)具(ju)代表性的半监督算法通常(chang)对标注数据使用交(jiao)叉(cha)熵損(sun)失(shi)进行训练,对无标注数据使用一致性正则技术(consistency regularization)鼓(gu)勵(li)对輸(shu)入擾(rao)动进行不變(bian)预測(ce)。

例如,谷歌在 NeurIPS 2020 提出的 FixMatch[2] 算法,利用增(zeng)強(qiang)錨(mao)定(ding)(augmentation anchoring)和固(gu)定閾(yu)值(zhi)(fixed thresholding)技术来增强模型对不同强度增强数据的泛化性和减少噪声偽(wei)标签(noisy pseudo labels)的影(ying)響(xiang)。在训练中,FixMatch 过濾(lv)了低(di)于用戶(hu)指(zhi)定(user-provided / pre-defined)阈值的无标签数据。

微软亚洲研究院与东京工业大学等在 NeurIPS 2021 合作提出的 FlexMatch[3] 则考(kao)慮(lv)到了不同类之间的学习难度不同,因(yin)此提出了課(ke)程(cheng)伪标签(curriculum pseudo labeling)技术,对于不同类应该采(cai)用不同的阈值。

具体来說(shuo),对于容(rong)易(yi)学习的类别,模型应该設(she)置(zhi)高阈值以降(jiang)低噪声伪标签的影响;对于难学习的类别,模型应该设置低阈值鼓励该类的拟合。每(mei)个类的学习难度评估取決(jue)于落(luo)入该类且(qie)高于固定值的未(wei)标记数据样本(ben)的数量。

同时,微软亚洲研究院的研究员们还合作提出了一个统一的基于 Pytorch 的半监督方法代码庫(ku) TorchSSL[4],对该领域的深度方法、常用数据集和基准结果进行了统一的支持。

圖(tu)1:FlexMatch 算法流(liu)程

当前半监督学习代码库存(cun)在的問(wen)题与挑(tiao)戰(zhan)

盡(jin)管(guan)半监督学习的发展如火如荼,但是,研究员们注意(yi)到目(mu)前大部分半监督方向的论文只(zhi)关注计算机视觉 (CV) 分类任务,对于其他(ta)领域,例如自然语言处理 (NLP)、音频处理 (audio),研究者无法得知(zhi)这些(xie)在 CV 任务上有效(xiao)的算法到了不同领域是否(fou)依然有效。

另(ling)外,大部分半监督相关的论文都(dou)是由大型机构发表,学术界的实验室往往由于计算资源的限制而很难参与到推动该领域的发展中。總(zong)的来说,半监督学习基准目前存在以下(xia)兩(liang)个问题:

(1)多样性不足。现有的半监督学习基准大多局限于 CV 分类任务(即(ji) CIFAR-10/100,SVHN,STL-10 和 ImageNet 分类),排除了对 NLP、audio 等分类任务的一致和多样化评估,而在 NLP 和 audio 中缺(que)乏(fa)足夠(gou)的标记数据也是一个普遍(bian)问题。

(2)耗(hao)时且对学术界不友好。现有的半监督学习基准(如 TorchSSL)通常是耗时且不環(huan)保(bao)的,因为它(ta)往往需(xu)要從(cong)頭(tou)開(kai)始(shi)训练深度神经网络模型。具体而言,使用TorchSSL 评估 FixMatch[1]大約(yue)需要300个 GPU 日(ri)。如此高的训练成(cheng)本使得許(xu)多研究实验室(尤(you)其是学术界的实验室或(huo)小研究团体)无法負(fu)擔(dan)得起 SSL 的相关研究,从而阻(zu)礙(ai)了 SSL 的进展。

USB:任务多样化且对研究者更友好的新基准库

为了解决上述(shu)问题,微软亚洲研究院的研究员们联合西湖大学、东京工业大学、卡内基梅隆大学、马克斯-普朗克研究所等机构的科研人员提出了 Unified SSL Benchmark(USB),这是第一个将视觉、语言和音频分类任务进行统一的半监督分类学习基准。

相比(bi)于之前的半监督学习基准(如 TorchSSL)只关注少量视觉任务,该基准不仅引入了更多样化的应用领域,还首次利用视觉预训练模型(pretrained vision Transformer)大大缩减了半监督算法的验证时间(从7000 GPU 时缩减至(zhi)900 GPU 时),从而使得半监督研究对研究者、特别是小研究团体更为友好。

相关论文已被国际人工智能领域的顶级学术大会 NeurIPS 2022 接收。(點(dian)擊(ji)「閱(yue)读原(yuan)文」可了解更多)

USB 提供(gong)的解决方案(an)

那(na)麽(me),USB 如何(he)一次性解决当前半监督基准所存在的问题呢(ne)?研究员们主要进行了如下改(gai)进:

(1)为增强任务多样性,USB 引入了5个 CV 数据集,5个 NLP 数据集和5个 audio 数据集,並(bing)提供了一个多样化且具有挑战性的基准,从而能够对来自不同领域的多个任务进行一致的评估。表1提供了 USB 与 TorchSSL 的任务和训练时间等方面的詳(xiang)細(xi)对比。

表1:USB 与 TorchSSL 框(kuang)架(jia)的任务和训练时间对比

(2)为了提高训练效率,研究员们将预训练的 vision Transformer 引入 SSL,而不是从头训练 ResNets。具体而言,研究员们发现在不影响性能的情(qing)況(kuang)下使用预训练模型可以大大减少训练叠(die)代次数(例如,将 CV 任务的训练迭代次数从100万步减少到20万步)。

(3)为了对研究人员更加友好,研究员们开源实现了14種(zhong) SSL 算法并开源了一个模塊(kuai)化代码库和相关的配(pei)置文件(jian)以供研究者輕(qing)松(song)再(zai)现 USB 报告(gao)中的结果。为了快(kuai)速(su)上手(shou),USB 还提供了详细的文檔(dang)和教(jiao)程。此外,USB 还提供了 pip 包以供使用者直(zhi)接調(tiao)用 SSL 算法。研究员们承(cheng)諾(nuo)未来会在 USB 中不斷(duan)加入新的算法(例如不平(ping)衡(heng)半监督算法等)和更多更具挑战性的数据集。表2展示(shi)了 USB 中已支持的算法和模块。

表2:USB 中已支持的算法和模块

半监督学习通过利用大量无标签数据来训练更精(jing)确、更魯(lu)棒(bang)的模型,在未来有着重要的研究和应用價(jia)值。微软亚洲研究院的研究员们期(qi)待(dai)通过 USB 这一工作,能够予(yu)力学术界和工业界在半监督学习领域取得更大的进展。

参考资料(liao):

[1]https://ai.googleblog.com/2021/07/from-vision-to-language-semi-supervised.html

[2] Kihyuk Sohn, David Berthelot, Nicholas Carlini, Zizhao Zhang, Han Zhang, Colin A Raffel, Ekin Dogus Cubuk, Alexey Kurakin, and Chun-Liang Li. Fixmatch: Simplifying semi-supervised learning with consistency and confidence. Advances in Neural Information Processing Systems, 33:596–608, 2020.

[3] Bowen Zhang, Yidong Wang, Wenxin Hou, Hao Wu, Jindong Wang, Manabu Okumura, and Takahiro Shinozaki. Flexmatch: Boosting semi-supervised learning with curriculum pseudo labeling. Advances in Neural Information Processing Systems, 34, 2021.

[4] TorchSSL: https://github.com/TorchSSL/TorchSSL返(fan)回(hui)搜狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:云南红河屏边苗族自治县