双十一大优惠!美食诱惑打破你的口碑限制!

双十一大优惠!美食诱惑打破你的口碑限制!

又到了每年的双十一购物狂欢节,除了各类商品的优惠,还有最令人期待的美食优惠。不管是线上还是线下,各大美食品牌都会推出各种折扣和优惠,吸引消费者前来品尝美食。本文将从四个方面对双十一大优惠!美食诱惑打破你的口碑限制!这一主题进行详细的阐述和探讨。

1. 双十一美食优惠有哪些?

随着电商的发展,越来越多的美食品牌也开始参与到双十一的活动中来。在这个节日里,各大美食品牌都会推出各种优惠活动,主要包括以下几种:1.1 打折优惠:美食品牌在双十一期间往往会推出大幅度的打折活动,让消费者可以以更优惠的价格购买到自己喜欢的美食。1.2 满减优惠:另外一种常见的优惠方式是满减活动。例如,消费者在指定时间内购买指定金额的商品,就可以享受相应的减免优惠。1.3 礼品赠送:除了打折和满减之外,一些美食品牌还会推出礼品赠送活动,例如购买一定金额的商品就可以获得小礼品或者抽奖机会。

2. 双十一美食优惠如何打破口碑限制?

在双十一期间,不仅仅是价格优惠可以吸引消费者,口碑也是一个很重要的因素。所以,一些美食品牌会通过以下几种方式来打破口碑限制:2.1 资源整合:美食品牌在双十一期间会将各方资源整合起来,例如美食博主、网红、KOL等,共同为品牌打造好口碑,提高品牌知名度和美誉度。2.2 创新活动:在双十一期间,为了吸引更多消费者,一些美食品牌会采用创新的营销活动。例如,一些品牌会推出新品尝鲜活动,或者推出限时特价套餐,吸引消费者尝鲜或者尝试不同的组合。2.3 优化服务:在双十一期间,一些美食品牌也会针对用户需求优化自己的服务。例如,提供更快速的配送服务、更加周到的售后服务等,让消费者感受到更好的购物体验,在口碑上有所提升。

3. 双十一美食优惠对消费者有哪些好处?

3.1 省钱:不可否认,最大的好处就是能够节省一定的花费,以更优惠的价格购买到心仪的美食。3.2 尝新:在双十一期间,一些美食品牌会推出新品尝鲜活动。消费者既可以享受优惠,又可以尝试新的美食口味,开拓味蕾。3.3 提高生活品质:美食是人们生活中必不可少的一部分,通过购买好的美食,不仅可以满足口腹之欲,还可以提高生活品质。

4. 双十一美食优惠的注意事项

4.1 多比较:在双十一购物前,消费者应该对同类型的美食进行比较,选择性价比更高的品牌进行购买。4.2 注意保质期:一些美食的保质期较短,因此在购买时应该注意保质期,避免买到过期的美食。4.3 真假辨别:在双十一期间,也会有一些商家销售假冒伪劣的美食,消费者应该注意真假辨别,选择正规的购买渠道和知名品牌进行购买。

总结

在双十一期间,美食品牌会推出各种打折、满减、礼品赠送等活动,吸引消费者前来品尝美食。为了打破口碑限制,美食品牌采用资源整合、创新活动、优化服务等方式,提高品牌知名度和美誉度。双十一美食优惠对消费者来说,除了省钱外,还可以尝新、提高生活品质。在购买美食时,消费者应该注意多比较、保质期、真假辨别等事项,避免受到不良商家的欺骗。

双十一大优惠!美食诱惑打破你的口碑限制!特色

1、收集材料,武器工坊解锁武器外形!

2、独一的主城互动探索玩法,玩家在主城内与场景互动,任意探索。

3、园区生活:左邻依据不同的园区对周边不同的商家资源进行整合,员工可进行在线购买,为员工提供便利。

4、每个关卡的障碍物设计都会不同,需要敏捷的手速来躲避,发挥你的灵敏反应。

5、西游仙魔传手游官方下载

双十一大优惠!美食诱惑打破你的口碑限制!亮点

1、游戏采用了非常可爱的画风向玩家呈现了一个纷纷扰扰的动物餐厅,玩家在游戏中的店员和顾客大部分都是动物。

2、唯美的背景画面和动漫式的角色,各种炫酷技能不断的连续释放,让玩家感受到真实的战斗场景。

3、经典重现,探索法老王的奥秘,发掘千年积木的力量

4、用户可自由选择自己喜欢的资讯类型来进行阅读。

5、你的颜值你做主

shoujicailiao,wuqigongfangjiesuowuqiwaixing!duyidezhuchenghudongtansuowanfa,wanjiazaizhuchengneiyuchangjinghudong,renyitansuo。yuanqushenghuo:zuolinyijubutongdeyuanquduizhoubianbutongdeshangjiaziyuanjinxingzhenghe,yuangongkejinxingzaixiangoumai,weiyuangongtigongbianli。meigeguankadezhangaiwushejidouhuibutong,xuyaominjiedeshousulaiduobi,fahuinidelingminfanying。xiyouxianmochuanshouyouguanfangxiazai谷(gu)歌(ge)推(tui)出(chu)多(duo)模(mo)態(tai)Vid2Seq,理(li)解(jie)視(shi)頻(pin)IQ在(zai)線(xian),字(zi)幕(mu)君(jun)不(bu)會(hui)下(xia)线了(le)|CVPR 2023

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】華(hua)人(ren)博(bo)士(shi)和(he)谷歌科(ke)學(xue)家(jia)最(zui)新提(ti)出了預(yu)訓(xun)練(lian)视覺(jiao)語(yu)言(yan)模型(xing)Vid2Seq,可(ke)以(yi)分(fen)辨(bian)和描(miao)述(shu)壹(yi)段(duan)视频中(zhong)的(de)多個(ge)事(shi)件(jian)。這(zhe)篇(pian)論(lun)文(wen)已(yi)被(bei)CVPR 2023接(jie)收(shou)。

最近(jin),來(lai)自(zi)谷歌的研(yan)究(jiu)員(yuan)提出了一種(zhong)用(yong)於(yu)描述多事件视频的预训练视觉语言模型——Vid2Seq,目(mu)前(qian)已被CVPR23接收。

在以前,理解视频內(nei)容(rong)是(shi)一項(xiang)具(ju)有(you)挑(tiao)戰(zhan)性(xing)的任(ren)務(wu),因(yin)為(wei)视频通(tong)常(chang)包(bao)含(han)在不同(tong)時(shi)間(jian)尺(chi)度(du)發(fa)生(sheng)的多个事件。

比(bi)如(ru),一个雪(xue)橇(qiao)手(shou)將(jiang)狗(gou)拴(shuan)在雪橇上(shang)、然(ran)後(hou)狗開(kai)始(shi)跑(pao)的视频涉(she)及(ji)一个長(chang)事件(狗拉(la)雪橇)和一个短(duan)事件(狗被拴在雪橇上)。

而(er)促(cu)進(jin)视频理解研究的一种方(fang)法(fa)是,通過(guo)密(mi)集(ji)视频標(biao)註(zhu)任务,該(gai)任务包括(kuo)在一分鐘(zhong)长的视频中對(dui)所(suo)有事件进行(xing)时间定(ding)位(wei)和描述。

论文地(di)址(zhi):https://arxiv.org/abs/2302.14115

Vid2Seq架(jia)構(gou)用特(te)殊(shu)的时间标記(ji)增(zeng)強(qiang)了语言模型,使(shi)其(qi)能(neng)夠(gou)在同一輸(shu)出序(xu)列(lie)中無(wu)縫(feng)预測(ce)事件邊(bian)界(jie)和文本(ben)描述。

为了对这个統(tong)一的模型进行预训练,研究者(zhe)通过将轉(zhuan)錄(lu)的语音(yin)的句(ju)子(zi)边界重(zhong)新表(biao)述为偽(wei)事件边界,並(bing)将转录的语音句子作(zuo)为伪事件的标注,来利(li)用未(wei)标记的旁(pang)白(bai)视频。

Vid2Seq模型概(gai)述

由(you)此(ci)產(chan)生的Vid2Seq模型在數(shu)以百(bai)萬(wan)計(ji)的旁白视频上进行了预训练,提高(gao)了各(ge)种密集视频标注基(ji)準(zhun)的技(ji)術(shu)水(shui)平(ping),包括YouCook2、ViTT和ActivityNet Captions。

Vid2Seq還(hai)能很(hen)好(hao)地適(shi)用于few-shot的密集视频标注設(she)置(zhi)、视频段落(luo)标注任务和标准视频标注任务。

用于密集视频标注的视觉语言模型

多模态Transformer架构已經(jing)刷(shua)新了各种视频任务的SOTA,比如動(dong)作識(shi)別(bie)。然而,要(yao)使这樣(yang)的架构适應(ying)在长達(da)幾(ji)分钟的视频中聯(lian)合(he)定位和标注事件的復(fu)雜(za)任务,并不簡(jian)單(dan)。

为了實(shi)現(xian)这一目标,研究者用特殊的时间标记(如文本标记)来增强视觉语言模型,这些(xie)时间标记代(dai)表视频中離(li)散(san)的时间戳(chuo),類(lei)似(si)于空(kong)间領(ling)域(yu)的Pix2Seq。

对于給(gei)定的视觉输入(ru),所产生的Vid2Seq模型既(ji)可以接受(shou)输入,也(ye)可以生成(cheng)文本和时间标记的序列。

首(shou)先(xian),这使Vid2Seq模型能够理解转录的语音输入的时间信(xin)息(xi),它(ta)被投(tou)射(she)为单一的标记序列。其次(ci),这使Vid2Seq能够联合预测密集的事件标注,并在视频中以时间为基礎(chu),同时生成单一的标记序列。

Vid2Seq架构包括一个视觉编碼(ma)器(qi)和一个文本编码器,它們(men)分别对视频幀(zhen)和转录的语音输入进行编码。产生的编码隨(sui)后被转发到(dao)文本解码器,该解码器自动预测密集事件标注的输出序列,以及它们在视频中的时间定位。该架构初(chu)始化(hua)时有一个强大(da)的视觉主(zhu)幹(gan)和一个强大的语言模型。

对视频进行大規(gui)模预训练

由于任务的密集性,为密集的视频标注手动收集注釋(shi)的成本特别高。

因此,研究者使用了无标簽(qian)的解說(shuo)视频对Vid2Seq模型进行预训练,这些视频在规模上很容易(yi)獲(huo)得(de)。他(ta)们还使用了YT-Temporal-1B数據(ju)集,其中包括1800万个涵(han)蓋(gai)廣(guang)泛(fan)领域的旁白视频。

研究者使用转录的语音句子及其相(xiang)应的时间戳作为監(jian)督(du),这些句子被投射为单一的token序列。

然后用一个生成目标对Vid2Seq进行预训练,该目标教(jiao)导解码器僅(jin)仅预测给定视觉输入的转录的语音序列,以及一个鼓(gu)勵(li)多模态学習(xi)的去(qu)噪(zao)目标,要求(qiu)模型在有噪聲(sheng)的转录语音序列和视觉输入的情(qing)況(kuang)下预测掩(yan)码。特别是,通过随機(ji)掩盖跨(kua)度的token,把(ba)噪声添(tian)加(jia)到语音序列中。

下遊(you)任务的基准测室(shi)結(jie)果(guo)

由此产生的预训练的Vid2Seq模型可以通过一个简单的最大似然目标在下游任务中进行微(wei)調(tiao),该目标使用教師(shi)强迫(po)(即(ji)在给定先前的基础真(zhen)实token的情况下预测下一个token)。

经过微调,Vid2Seq在三(san)个标准的下游密集视频标注基准(ActivityNet Captions、YouCook2和ViTT)和兩(liang)个视频剪(jian)辑标注基准(MSR-VTT、MSVD)上超(chao)越(yue)了SOTA。

在论文中,还有額(e)外(wai)的消(xiao)融(rong)研究、定性结果,以及在few-shot设置和视频段落标注任务中的结果。

定性测試(shi)

结果表明(ming),Vid2Seq可以预测有意(yi)義(yi)的事件边界和标注,而且(qie)预测的标注和边界與(yu)转录的语音输入有很大的不同(这也表明输入中视觉标记的重要性)。

下一个例(li)子有關(guan)于烹(peng)飪(ren)食(shi)譜(pu)中的一系(xi)列指(zhi)令(ling),是Vid2Seq对YouCook2驗(yan)證(zheng)集的密集事件标注预测的例子:

接下来是Vid2Seq对ActivityNet Captions验证集的密集事件标注预测的例子,在所有这些视频中,都(dou)沒(mei)有转录的语音。

不过还是会有失(shi)敗(bai)的案(an)例,比如下面(mian)标紅(hong)的这个畫(hua)面,Vid2Seq说是一个人对著(zhe)鏡(jing)頭(tou)脫(tuo)帽(mao)致(zhi)敬(jing)。

对标SOTA

表5将Vid2Seq与最先进的密集视频标注方法进行了比較(jiao):Vid2Seq在YouCook2、ViTT 和ActivityNet Captions这三个数据集上刷新了SOTA。

Vid2Seq在YouCook2和ActivityNet Captions上的SODA指标比PDVC和UEDVC分别提高了3.5和0.3分。且E2ESG在Wikihow上使用域内純(chun)文本预训练,而Vid2Seq優(you)于这一方法。这些结果表明,预训练的Vid2Seq模型具有很强的密集事件标注能力(li)。

表6評(ping)估(gu)了密集视频标注模型的事件定位性能。与YouCook2和ViTT相比,Vid2Seq在處(chu)理密集视频标注作为单一序列生成任务时更(geng)勝(sheng)一籌(chou)。

然而,与PDVC和UEDVC相比,Vid2Seq在ActivityNet Captions上表现不佳(jia)。与这两种方法相比,Vid2Seq整(zheng)合了较少(shao)的关于时间定位的先验知(zhi)识,而另(ling)两种方法包括特定的任务組(zu)件,如事件计数器或(huo)单獨(du)为定位子任务训练一个模型。

实现細(xi)節(jie)

架构

视觉时间transformer编码器、文本编码器和文本解码器都有12層(ceng),12个头,嵌(qian)入維(wei)度768,MLP隱(yin)藏(zang)维度2048。

文本编码器和解码器的序列在预训练时被截(jie)斷(duan)或填(tian)充(chong)为L=S=1000个token,在微调期(qi)间,S=1000和L=256个token。在推理过程(cheng)中,使用波(bo)束(shu)搜(sou)索(suo)解码,跟(gen)蹤(zong)前4个序列并应用0.6的长度歸(gui)一化。

训练

作者使用Adam优化器,β=(0.9, 0.999),没有權(quan)重衰(shuai)減(jian)。

在预训练期间,使用1e^-4的学习率(lv),在前1000次叠(die)代中线性预熱(re)(從(cong)0开始),并在其余(yu)迭代中保(bao)持(chi)不變(bian)。

在微调期间,使用3e^-4的学习率,在前10%的迭代中线性预热(从0开始),其余90%的迭代中保持余弦(xian)衰减(降(jiang)至(zhi)0)。过程中,使用32个视频的批(pi)处理量(liang),并在16个TPU v4芯(xin)片(pian)上分割(ge)。

作者对YouCook2进行了40次epoch调整,对ActivityNet Captions和ViTT进行了20次epoch调整,对MSR-VTT进行了5次epoch调整,对MSVD进行了10次epoch调整。

结论

谷歌提出的Vid2Seq,是一种用于密集视频标注的新型视觉语言模型,它可以有效(xiao)地在无标签的旁白视频上进行大规模的预训练,并在各种下游密集视频标注的基准上取(qu)得了SOTA的结果。

作者介(jie)紹(shao)

论文一作:Antoine Yang

Antoine Yang是法國(guo)国立(li)计算(suan)机及自动化研究院(yuan)Inria和巴(ba)黎(li)高等(deng)师範(fan)学校(xiao)école Normale Supérieure的WILLOW團(tuan)隊(dui)的三年(nian)級(ji)博士生,导师为Antoine Miech, Josef Sivic, Ivan Laptev和Cordelia Schmid。

目前的研究重點(dian)是学习用于视频理解的视觉语言模型。他于2019年在华为諾(nuo)亞(ya)方舟(zhou)实验室实习,在2020年获得了巴黎綜(zong)合理工(gong)学院的工程学位和巴黎薩(sa)克(ke)雷(lei)国立大学的数学、视觉和学习碩(shuo)士学位,2022年在谷歌研究院实习。

參(can)考(kao)資(zi)料(liao):

https://ai.googleblog.com/2023/03/vid2seq-pretrained-visual-language.html返(fan)回(hui)搜狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:安徽淮北烈山区