除味创意广告:教你轻松去除难闻气味

除味创意广告:教你轻松去除难闻气味

难闻气味对我们的生活和健康都会造成很大的影响。家里或办公室里有异味时,常常需要采取一些除味措施。除了通风、清洁等一些传统方法,还有一些创意广告可以帮助我们去除难闻气味。本文将从创意广告、植物除味、氧化剂、活性炭四个方面,详细阐述如何轻松去除难闻气味。

创意广告:令除味更美好

现在很多品牌推出了创意广告,这种广告呈现出的是一种轻松愉悦的氛围,让人感觉很有趣。这些广告除了宣传产品的功能之外,还充当了除味的角色。例如,日本的一家品牌推出了一种名为臭氧松饼的产品,就是通过不断喷洒臭臭的松饼味,来掩盖室内异味。这种广告的方法不仅能够有效去除异味,还能给人带来愉悦的感觉。

植物除味:自然不用添加剂

植物除味是一种以植物为主要原料的除味方式。植物除味不需要添加人工成分,对人体健康没有任何危害。同时,它也很容易使用。只需要一颗小小的植物,就可以轻松地去除室内异味。例如,常见的绿萝、吊兰、虎尾兰、芦荟等植物都有除味的作用。这些植物通过吸收室内的有害气体,来净化空气,使室内空气更加清新。同时,在室内放置植物,还能起到美化环境的作用。

氧化剂:快速去除异味

氧化剂是一种快速去除异味的方法。它能将室内的异味分子氧化为无害气体,达到杀菌除臭的目的。氧化剂使用起来非常方便,只需要将氧化剂喷洒在空气中或喷涂在异味较重的物体上,就可以起到去味的效果。常用的氧化剂有次氯酸钠、次氯酸钙、氨水、过氧化氢等。

活性炭:吸附异味

活性炭是一种吸附型除味剂。它的孔隙结构可以吸附室内的有害气体,使空气更加清新。活性炭使用起来也非常方便,只需要将活性炭放置在室内或将其加入除味产品中,就可以有效去除异味。不过,需要注意的是,活性炭的吸附效果会随时间的推移而减弱,需要定期更换。

总结

去除室内异味的方法有很多,可以通过创意广告、植物除味、氧化剂、活性炭等多种方式来实现。不同的除味方法适用于不同的场合和需要。例如,对于需要快速去除异味的场合,氧化剂可能会更有效;对于需要长期除味的场合,植物除味、活性炭等则更为适宜。无论哪种方法,安全环保、使用方便、效果显著是我们选择的关键。

问答话题

1. 植物除味有哪些常见的植物可以使用?常见的植物包括绿萝、吊兰、虎尾兰、芦荟等。这些植物具有较强的净化空气的能力,并且对人体健康无害。2. 氧化剂有哪些常见的种类?常见的氧化剂有次氯酸钠、次氯酸钙、氨水、过氧化氢等。这些氧化剂可以快速将室内的异味分子氧化为无害气体,达到杀菌除臭的目的。3. 活性炭需要多久更换一次?活性炭的吸附效果会随时间的推移而减弱,需要定期更换。一般建议每三个月更换一次。

除味创意广告:教你轻松去除难闻气味随机日志

下载后,您可以单击“库”在本地驱动器上找到下载良好的Disney+视频。

1、文件轻松分享:一键分享文件,支持生成外链;扫描二维码,手机即可快速查看;可设定到期时间、提取密码、下载权限,满足更多场景需求,轻松将文件分享给客户、同事查看。

2、抵扣券,对于抵扣券的发放,用户成功领取之后,在支付的时候使用抵扣券,相当于变相的为用户进行了优惠。

3、KML书签分享:提供地点书签记录功能,并且允许导入和导出,这使得GE的使用交流会更加便利;现这些上述功能。该数据库在上星期进行了更新,它含有美国宇航局提供的大量地形数据,未来还将覆盖更多的地形,涉及田园,荒地等

4、修复青创网部分商品细节图无法下载的BUG。

5、难题当前却无法解决的尴尬情况不复存在,只需低额的在线小费,平台内便有技术大神为你在线解决烦恼。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>谷(gu)歌(ge)推(tui)出(chu)多(duo)模(mo)態(tai)Vid2Seq,理(li)解(jie)視(shi)頻(pin)IQ在(zai)線(xian),字(zi)幕(mu)君(jun)不(bu)會(hui)下(xia)线了(le)|CVPR 2023

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】華(hua)人(ren)博(bo)士(shi)和(he)谷歌科(ke)學(xue)家(jia)最(zui)新提(ti)出了預(yu)訓(xun)練(lian)视覺(jiao)語(yu)言(yan)模型(xing)Vid2Seq,可(ke)以(yi)分(fen)辨(bian)和描(miao)述(shu)壹(yi)段(duan)视频中(zhong)的(de)多個(ge)事(shi)件(jian)。這(zhe)篇(pian)論(lun)文(wen)已(yi)被(bei)CVPR 2023接(jie)收(shou)。

最近(jin),來(lai)自(zi)谷歌的研(yan)究(jiu)員(yuan)提出了一種(zhong)用(yong)於(yu)描述多事件视频的预训练视觉语言模型——Vid2Seq,目(mu)前(qian)已被CVPR23接收。

在以前,理解视频內(nei)容(rong)是(shi)一項(xiang)具(ju)有(you)挑(tiao)戰(zhan)性(xing)的任(ren)務(wu),因(yin)為(wei)视频通(tong)常(chang)包(bao)含(han)在不同(tong)時(shi)間(jian)尺(chi)度(du)發(fa)生(sheng)的多个事件。

比(bi)如(ru),一个雪(xue)橇(qiao)手(shou)將(jiang)狗(gou)拴(shuan)在雪橇上(shang)、然(ran)後(hou)狗開(kai)始(shi)跑(pao)的视频涉(she)及(ji)一个長(chang)事件(狗拉(la)雪橇)和一个短(duan)事件(狗被拴在雪橇上)。

而(er)促(cu)進(jin)视频理解研究的一种方(fang)法(fa)是,通過(guo)密(mi)集(ji)视频標(biao)註(zhu)任务,該(gai)任务包括(kuo)在一分鐘(zhong)长的视频中對(dui)所(suo)有事件进行(xing)时间定(ding)位(wei)和描述。

论文地(di)址(zhi):https://arxiv.org/abs/2302.14115

Vid2Seq架(jia)構(gou)用特(te)殊(shu)的时间标記(ji)增(zeng)強(qiang)了语言模型,使(shi)其(qi)能(neng)夠(gou)在同一輸(shu)出序(xu)列(lie)中無(wu)縫(feng)预測(ce)事件邊(bian)界(jie)和文本(ben)描述。

为了对这个統(tong)一的模型进行预训练,研究者(zhe)通过将轉(zhuan)錄(lu)的语音(yin)的句(ju)子(zi)边界重(zhong)新表(biao)述为偽(wei)事件边界,並(bing)将转录的语音句子作(zuo)为伪事件的标注,来利(li)用未(wei)标记的旁(pang)白(bai)视频。

Vid2Seq模型概(gai)述

由(you)此(ci)產(chan)生的Vid2Seq模型在數(shu)以百(bai)萬(wan)計(ji)的旁白视频上进行了预训练,提高(gao)了各(ge)种密集视频标注基(ji)準(zhun)的技(ji)術(shu)水(shui)平(ping),包括YouCook2、ViTT和ActivityNet Captions。

Vid2Seq還(hai)能很(hen)好(hao)地適(shi)用于few-shot的密集视频标注設(she)置(zhi)、视频段落(luo)标注任务和标准视频标注任务。

用于密集视频标注的视觉语言模型

多模态Transformer架构已經(jing)刷(shua)新了各种视频任务的SOTA,比如動(dong)作識(shi)別(bie)。然而,要(yao)使这樣(yang)的架构适應(ying)在长達(da)幾(ji)分钟的视频中聯(lian)合(he)定位和标注事件的復(fu)雜(za)任务,并不簡(jian)單(dan)。

为了實(shi)現(xian)这一目标,研究者用特殊的时间标记(如文本标记)来增强视觉语言模型,这些(xie)时间标记代(dai)表视频中離(li)散(san)的时间戳(chuo),類(lei)似(si)于空(kong)间領(ling)域(yu)的Pix2Seq。

对于給(gei)定的视觉输入(ru),所产生的Vid2Seq模型既(ji)可以接受(shou)输入,也(ye)可以生成(cheng)文本和时间标记的序列。

首(shou)先(xian),这使Vid2Seq模型能够理解转录的语音输入的时间信(xin)息(xi),它(ta)被投(tou)射(she)为单一的标记序列。其次(ci),这使Vid2Seq能够联合预测密集的事件标注,并在视频中以时间为基礎(chu),同时生成单一的标记序列。

Vid2Seq架构包括一个视觉编碼(ma)器(qi)和一个文本编码器,它們(men)分别对视频幀(zhen)和转录的语音输入进行编码。产生的编码隨(sui)后被转发到(dao)文本解码器,该解码器自动预测密集事件标注的输出序列,以及它们在视频中的时间定位。该架构初(chu)始化(hua)时有一个强大(da)的视觉主(zhu)幹(gan)和一个强大的语言模型。

对视频进行大規(gui)模预训练

由于任务的密集性,为密集的视频标注手动收集注釋(shi)的成本特别高。

因此,研究者使用了无标簽(qian)的解說(shuo)视频对Vid2Seq模型进行预训练,这些视频在规模上很容易(yi)獲(huo)得(de)。他(ta)们还使用了YT-Temporal-1B数據(ju)集,其中包括1800万个涵(han)蓋(gai)廣(guang)泛(fan)领域的旁白视频。

研究者使用转录的语音句子及其相(xiang)应的时间戳作为監(jian)督(du),这些句子被投射为单一的token序列。

然后用一个生成目标对Vid2Seq进行预训练,该目标教(jiao)导解码器僅(jin)仅预测给定视觉输入的转录的语音序列,以及一个鼓(gu)勵(li)多模态学習(xi)的去(qu)噪(zao)目标,要求(qiu)模型在有噪聲(sheng)的转录语音序列和视觉输入的情(qing)況(kuang)下预测掩(yan)码。特别是,通过随機(ji)掩盖跨(kua)度的token,把(ba)噪声添(tian)加(jia)到语音序列中。

下遊(you)任务的基准测室(shi)結(jie)果(guo)

由此产生的预训练的Vid2Seq模型可以通过一个简单的最大似然目标在下游任务中进行微(wei)調(tiao),该目标使用教師(shi)强迫(po)(即(ji)在给定先前的基础真(zhen)实token的情况下预测下一个token)。

经过微调,Vid2Seq在三(san)个标准的下游密集视频标注基准(ActivityNet Captions、YouCook2和ViTT)和兩(liang)个视频剪(jian)辑标注基准(MSR-VTT、MSVD)上超(chao)越(yue)了SOTA。

在论文中,还有額(e)外(wai)的消(xiao)融(rong)研究、定性结果,以及在few-shot设置和视频段落标注任务中的结果。

定性测試(shi)

结果表明(ming),Vid2Seq可以预测有意(yi)義(yi)的事件边界和标注,而且(qie)预测的标注和边界與(yu)转录的语音输入有很大的不同(这也表明输入中视觉标记的重要性)。

下一个例(li)子有關(guan)于烹(peng)飪(ren)食(shi)譜(pu)中的一系(xi)列指(zhi)令(ling),是Vid2Seq对YouCook2驗(yan)證(zheng)集的密集事件标注预测的例子:

接下来是Vid2Seq对ActivityNet Captions验证集的密集事件标注预测的例子,在所有这些视频中,都(dou)沒(mei)有转录的语音。

不过还是会有失(shi)敗(bai)的案(an)例,比如下面(mian)标紅(hong)的这个畫(hua)面,Vid2Seq说是一个人对著(zhe)鏡(jing)頭(tou)脫(tuo)帽(mao)致(zhi)敬(jing)。

对标SOTA

表5将Vid2Seq与最先进的密集视频标注方法进行了比較(jiao):Vid2Seq在YouCook2、ViTT 和ActivityNet Captions这三个数据集上刷新了SOTA。

Vid2Seq在YouCook2和ActivityNet Captions上的SODA指标比PDVC和UEDVC分别提高了3.5和0.3分。且E2ESG在Wikihow上使用域内純(chun)文本预训练,而Vid2Seq優(you)于这一方法。这些结果表明,预训练的Vid2Seq模型具有很强的密集事件标注能力(li)。

表6評(ping)估(gu)了密集视频标注模型的事件定位性能。与YouCook2和ViTT相比,Vid2Seq在處(chu)理密集视频标注作为单一序列生成任务时更(geng)勝(sheng)一籌(chou)。

然而,与PDVC和UEDVC相比,Vid2Seq在ActivityNet Captions上表现不佳(jia)。与这两种方法相比,Vid2Seq整(zheng)合了较少(shao)的关于时间定位的先验知(zhi)识,而另(ling)两种方法包括特定的任务組(zu)件,如事件计数器或(huo)单獨(du)为定位子任务训练一个模型。

实现細(xi)節(jie)

架构

视觉时间transformer编码器、文本编码器和文本解码器都有12層(ceng),12个头,嵌(qian)入維(wei)度768,MLP隱(yin)藏(zang)维度2048。

文本编码器和解码器的序列在预训练时被截(jie)斷(duan)或填(tian)充(chong)为L=S=1000个token,在微调期(qi)间,S=1000和L=256个token。在推理过程(cheng)中,使用波(bo)束(shu)搜(sou)索(suo)解码,跟(gen)蹤(zong)前4个序列并应用0.6的长度歸(gui)一化。

训练

作者使用Adam优化器,β=(0.9, 0.999),没有權(quan)重衰(shuai)減(jian)。

在预训练期间,使用1e^-4的学习率(lv),在前1000次叠(die)代中线性预熱(re)(從(cong)0开始),并在其余(yu)迭代中保(bao)持(chi)不變(bian)。

在微调期间,使用3e^-4的学习率,在前10%的迭代中线性预热(从0开始),其余90%的迭代中保持余弦(xian)衰减(降(jiang)至(zhi)0)。过程中,使用32个视频的批(pi)处理量(liang),并在16个TPU v4芯(xin)片(pian)上分割(ge)。

作者对YouCook2进行了40次epoch调整,对ActivityNet Captions和ViTT进行了20次epoch调整,对MSR-VTT进行了5次epoch调整,对MSVD进行了10次epoch调整。

结论

谷歌提出的Vid2Seq,是一种用于密集视频标注的新型视觉语言模型,它可以有效(xiao)地在无标签的旁白视频上进行大规模的预训练,并在各种下游密集视频标注的基准上取(qu)得了SOTA的结果。

作者介(jie)紹(shao)

论文一作:Antoine Yang

Antoine Yang是法國(guo)国立(li)计算(suan)机及自动化研究院(yuan)Inria和巴(ba)黎(li)高等(deng)师範(fan)学校(xiao)école Normale Supérieure的WILLOW團(tuan)隊(dui)的三年(nian)級(ji)博士生,导师为Antoine Miech, Josef Sivic, Ivan Laptev和Cordelia Schmid。

目前的研究重點(dian)是学习用于视频理解的视觉语言模型。他于2019年在华为諾(nuo)亞(ya)方舟(zhou)实验室实习,在2020年获得了巴黎綜(zong)合理工(gong)学院的工程学位和巴黎薩(sa)克(ke)雷(lei)国立大学的数学、视觉和学习碩(shuo)士学位,2022年在谷歌研究院实习。

參(can)考(kao)資(zi)料(liao):

https://ai.googleblog.com/2023/03/vid2seq-pretrained-visual-language.html返(fan)回(hui)搜狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:天津市河东河东区