QQ对接广告:定向投放效果翻倍

QQ对接广告:定向投放效果翻倍

越来越多的企业开始借助QQ对接广告来进行品牌推广和销售增长,这是因为QQ对接广告具有定向投放的特性,能够将广告投放至目标客户,大幅度提升广告效果。本文将从四个方面详细阐述QQ对接广告的定向投放效果,帮助你更好地了解并利用QQ对接广告。

一、定向投放的优势

QQ对接广告是一种投放至QQ聊天界面上的广告,与传统媒体广告不同,通过QQ对接广告,广告主可以在广告投放前选择目标客户群体,例如性别、年龄、地域、兴趣爱好等,从而将广告精准投放至目标人群,提高广告效果。

QQ对接广告的投放方式包括两种:一种是基于QQ号码的定向投放,即将广告投放至指定的QQ号码,另一种是基于标签的定向投放,即按照广告主设定的标签,将广告投放至符合条件的用户。

与传统广告相比,QQ对接广告的定向投放具有以下三个优势:

1. 精准投放

传统媒体广告的投放效果受众多因素影响,难以实现精准投放。而QQ对接广告的定向投放功能可以精准投放至目标客户,提高广告效果。

2. 高效投放

QQ对接广告的投放速度很快,通常在广告投放后的几分钟之内,广告就会显示在目标客户的QQ聊天界面上。此外,广告主可以根据广告效果实时调整广告内容和投放策略,提升广告效果。

3. 低成本投放

由于QQ对接广告的定向投放功能,广告主可以将广告仅投放至目标客户,避免了广告浪费。这样可以节省投放成本,提高广告效果。

二、定向投放的实现

QQ对接广告的定向投放实现主要依赖于广告主提供的客户信息和QQ对接广告平台提供的用户画像。

广告主提供的客户信息包括性别、年龄、地域、兴趣爱好、行业、职业等,QQ对接广告平台可以根据这些信息匹配用户画像。

用户画像是QQ对接广告平台提供的一种用户分析工具,可以分析用户的兴趣爱好、购买行为、社交互动等,为广告主提供更为详细的用户信息。广告主可以根据用户画像选择目标客户并投放广告。

需要注意的一点是,广告主提供的客户信息越详细,定向投放的效果就越好。

三、定向投放的策略

QQ对接广告的定向投放需要广告主制定相应的投放策略,以下是几点建议:

1. 视频广告投放时长

在投放视频广告时,广告主需要关注视频广告的时长。视频广告时长不宜过长,一般应在30秒以内,否则可能会让用户感到烦躁而选择关闭广告。此外,视频广告最好设置为可以跳过,让用户自行选择是否观看,提高广告观看率。

2. 投放时间选择

广告主需要根据目标客户的生活习惯和活动时间选择投放的时间段,例如周末和晚上是广告投放的高峰期,可以考虑在这些时间段进行投放。

3. 广告内容设计

广告内容需要具有吸引力和互动性,例如可以加入产品介绍、优惠活动、品牌故事等元素,吸引用户点击广告并了解更多信息。

四、定向投放的效果分析

QQ对接广告的定向投放可以提高广告效果,但需要广告主对广告效果进行分析和评估,以下是几个方面需要关注的点:

1. 广告展示率和点击率

广告主需要关注广告的展示率和点击率,展示率可以反映广告投放的数量,点击率可以反映广告吸引用户的能力。

2. 成本效益比

广告主需要关注广告投放的成本效益比,即广告投入了多少成本,带来了多少收益,从而不断调整广告投放策略,提高广告效果。

QQ对接广告的定向投放可以提高广告效果,但需要广告主制定相应的投放策略,并对广告效果进行分析和评估。

本文从四个方面详细阐述了QQ对接广告的定向投放效果,并为广告主制定投放策略和评估广告效果提供了指导意见。

如果您有关于QQ对接广告定向投放的问题,可以咨询QQ对接广告平台的客服人员,他们将为您提供最专业的解答。

**问答话题**1. QQ对接广告如何做到精准定向投放? 答:QQ对接广告实现精准定向投放的方法包括两种:基于QQ号码的定向投放和基于标签的定向投放。广告主可以根据目标客户的性别、年龄、地区、兴趣爱好等信息进行设定,QQ对接广告平台可以根据这些信息匹配用户画像,实现精准定向投放。2. 如何提高QQ对接广告的点击率?答:提高QQ对接广告的点击率需要广告主注意以下几点:① 广告内容设计需要具有吸引力和互动性,加入产品介绍、优惠活动、品牌故事等元素。② 广告主可以在广告投放时选择投放时间段,选择目标客户的生活习惯和活动时间进行投放。③ 广告主可以根据广告效果实时调整广告内容和投放策略,提高广告效果。3. QQ对接广告的定向投放效果如何评价?答:评价QQ对接广告的定向投放效果可以从以下几个方面进行:① 广告展示率和点击率:展示率可以反映广告投放的数量,点击率可以反映广告吸引用户的能力。② 成本效益比:广告投放的成本效益比可以反映广告投入了多少成本,带来了多少收益。广告主需要关注这些指标,并根据实际情况进行不断调整,提高广告效果。

QQ对接广告:定向投放效果翻倍特色

1、保证行驶道路上的安全,展示出平稳的驾驶方式,不能让物品出现任何的损坏。

2、不同技能组合起来,才能让你释放更为强大的力量,你可以好好看看他们是如何去组合那些技能的;

3、各种类型的货源在这里应有尽有,涵盖了人们日常生活所需的各类物品,为大家带来更便捷的购物服务。

4、司机智能接单的全功能平台,让用户更好的查看大量发货的信息;

5、海量素材直接绘制地图

QQ对接广告:定向投放效果翻倍亮点

1、邀约面试:系统推荐优质候选人,手机邀约人才面试;

2、优质产品分步评审制,每一个都是优质产品。

3、业界名师指导,备考轻松高效,通关率行业领先更多试听课程可在课程中心体验

4、多种副本任务尽情挑战,打败boss随机掉落物品,且品质很高;

5、壹深圳app下载

baozhengxingshidaolushangdeanquan,zhanshichupingwendejiashifangshi,bunengrangwupinchuxianrenhedesunhuai。butongjinengzuheqilai,cainengrangnishifanggengweiqiangdadeliliang,nikeyihaohaokankantamenshiruhequzuhenaxiejinengde;gezhongleixingdehuoyuanzaizheliyingyoujinyou,hangailerenmenrichangshenghuosuoxudegeleiwupin,weidajiadailaigengbianjiedegouwufuwu。sijizhinengjiedandequangongnengpingtai,rangyonghugenghaodezhakandaliangfahuodexinxi;hailiangsucaizhijiehuizhiditu谷(gu)歌(ge)推(tui)出(chu)多(duo)模(mo)態(tai)Vid2Seq,理(li)解(jie)視(shi)頻(pin)IQ在(zai)線(xian),字(zi)幕(mu)君(jun)不(bu)會(hui)下(xia)线了(le)|CVPR 2023

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】華(hua)人(ren)博(bo)士(shi)和(he)谷歌科(ke)學(xue)家(jia)最(zui)新提(ti)出了預(yu)訓(xun)練(lian)视覺(jiao)語(yu)言(yan)模型(xing)Vid2Seq,可(ke)以(yi)分(fen)辨(bian)和描(miao)述(shu)壹(yi)段(duan)视频中(zhong)的(de)多個(ge)事(shi)件(jian)。這(zhe)篇(pian)論(lun)文(wen)已(yi)被(bei)CVPR 2023接(jie)收(shou)。

最近(jin),來(lai)自(zi)谷歌的研(yan)究(jiu)員(yuan)提出了一種(zhong)用(yong)於(yu)描述多事件视频的预训练视觉语言模型——Vid2Seq,目(mu)前(qian)已被CVPR23接收。

在以前,理解视频內(nei)容(rong)是(shi)一項(xiang)具(ju)有(you)挑(tiao)戰(zhan)性(xing)的任(ren)務(wu),因(yin)為(wei)视频通(tong)常(chang)包(bao)含(han)在不同(tong)時(shi)間(jian)尺(chi)度(du)發(fa)生(sheng)的多个事件。

比(bi)如(ru),一个雪(xue)橇(qiao)手(shou)將(jiang)狗(gou)拴(shuan)在雪橇上(shang)、然(ran)後(hou)狗開(kai)始(shi)跑(pao)的视频涉(she)及(ji)一个長(chang)事件(狗拉(la)雪橇)和一个短(duan)事件(狗被拴在雪橇上)。

而(er)促(cu)進(jin)视频理解研究的一种方(fang)法(fa)是,通過(guo)密(mi)集(ji)视频標(biao)註(zhu)任务,該(gai)任务包括(kuo)在一分鐘(zhong)长的视频中對(dui)所(suo)有事件进行(xing)时间定(ding)位(wei)和描述。

论文地(di)址(zhi):https://arxiv.org/abs/2302.14115

Vid2Seq架(jia)構(gou)用特(te)殊(shu)的时间标記(ji)增(zeng)強(qiang)了语言模型,使(shi)其(qi)能(neng)夠(gou)在同一輸(shu)出序(xu)列(lie)中無(wu)縫(feng)预測(ce)事件邊(bian)界(jie)和文本(ben)描述。

为了对这个統(tong)一的模型进行预训练,研究者(zhe)通过将轉(zhuan)錄(lu)的语音(yin)的句(ju)子(zi)边界重(zhong)新表(biao)述为偽(wei)事件边界,並(bing)将转录的语音句子作(zuo)为伪事件的标注,来利(li)用未(wei)标记的旁(pang)白(bai)视频。

Vid2Seq模型概(gai)述

由(you)此(ci)產(chan)生的Vid2Seq模型在數(shu)以百(bai)萬(wan)計(ji)的旁白视频上进行了预训练,提高(gao)了各(ge)种密集视频标注基(ji)準(zhun)的技(ji)術(shu)水(shui)平(ping),包括YouCook2、ViTT和ActivityNet Captions。

Vid2Seq還(hai)能很(hen)好(hao)地適(shi)用于few-shot的密集视频标注設(she)置(zhi)、视频段落(luo)标注任务和标准视频标注任务。

用于密集视频标注的视觉语言模型

多模态Transformer架构已經(jing)刷(shua)新了各种视频任务的SOTA,比如動(dong)作識(shi)別(bie)。然而,要(yao)使这樣(yang)的架构适應(ying)在长達(da)幾(ji)分钟的视频中聯(lian)合(he)定位和标注事件的復(fu)雜(za)任务,并不簡(jian)單(dan)。

为了實(shi)現(xian)这一目标,研究者用特殊的时间标记(如文本标记)来增强视觉语言模型,这些(xie)时间标记代(dai)表视频中離(li)散(san)的时间戳(chuo),類(lei)似(si)于空(kong)间領(ling)域(yu)的Pix2Seq。

对于給(gei)定的视觉输入(ru),所产生的Vid2Seq模型既(ji)可以接受(shou)输入,也(ye)可以生成(cheng)文本和时间标记的序列。

首(shou)先(xian),这使Vid2Seq模型能够理解转录的语音输入的时间信(xin)息(xi),它(ta)被投(tou)射(she)为单一的标记序列。其次(ci),这使Vid2Seq能够联合预测密集的事件标注,并在视频中以时间为基礎(chu),同时生成单一的标记序列。

Vid2Seq架构包括一个视觉编碼(ma)器(qi)和一个文本编码器,它們(men)分别对视频幀(zhen)和转录的语音输入进行编码。产生的编码隨(sui)后被转发到(dao)文本解码器,该解码器自动预测密集事件标注的输出序列,以及它们在视频中的时间定位。该架构初(chu)始化(hua)时有一个强大(da)的视觉主(zhu)幹(gan)和一个强大的语言模型。

对视频进行大規(gui)模预训练

由于任务的密集性,为密集的视频标注手动收集注釋(shi)的成本特别高。

因此,研究者使用了无标簽(qian)的解說(shuo)视频对Vid2Seq模型进行预训练,这些视频在规模上很容易(yi)獲(huo)得(de)。他(ta)们还使用了YT-Temporal-1B数據(ju)集,其中包括1800万个涵(han)蓋(gai)廣(guang)泛(fan)领域的旁白视频。

研究者使用转录的语音句子及其相(xiang)应的时间戳作为監(jian)督(du),这些句子被投射为单一的token序列。

然后用一个生成目标对Vid2Seq进行预训练,该目标教(jiao)导解码器僅(jin)仅预测给定视觉输入的转录的语音序列,以及一个鼓(gu)勵(li)多模态学習(xi)的去(qu)噪(zao)目标,要求(qiu)模型在有噪聲(sheng)的转录语音序列和视觉输入的情(qing)況(kuang)下预测掩(yan)码。特别是,通过随機(ji)掩盖跨(kua)度的token,把(ba)噪声添(tian)加(jia)到语音序列中。

下遊(you)任务的基准测室(shi)結(jie)果(guo)

由此产生的预训练的Vid2Seq模型可以通过一个简单的最大似然目标在下游任务中进行微(wei)調(tiao),该目标使用教師(shi)强迫(po)(即(ji)在给定先前的基础真(zhen)实token的情况下预测下一个token)。

经过微调,Vid2Seq在三(san)个标准的下游密集视频标注基准(ActivityNet Captions、YouCook2和ViTT)和兩(liang)个视频剪(jian)辑标注基准(MSR-VTT、MSVD)上超(chao)越(yue)了SOTA。

在论文中,还有額(e)外(wai)的消(xiao)融(rong)研究、定性结果,以及在few-shot设置和视频段落标注任务中的结果。

定性测試(shi)

结果表明(ming),Vid2Seq可以预测有意(yi)義(yi)的事件边界和标注,而且(qie)预测的标注和边界與(yu)转录的语音输入有很大的不同(这也表明输入中视觉标记的重要性)。

下一个例(li)子有關(guan)于烹(peng)飪(ren)食(shi)譜(pu)中的一系(xi)列指(zhi)令(ling),是Vid2Seq对YouCook2驗(yan)證(zheng)集的密集事件标注预测的例子:

接下来是Vid2Seq对ActivityNet Captions验证集的密集事件标注预测的例子,在所有这些视频中,都(dou)沒(mei)有转录的语音。

不过还是会有失(shi)敗(bai)的案(an)例,比如下面(mian)标紅(hong)的这个畫(hua)面,Vid2Seq说是一个人对著(zhe)鏡(jing)頭(tou)脫(tuo)帽(mao)致(zhi)敬(jing)。

对标SOTA

表5将Vid2Seq与最先进的密集视频标注方法进行了比較(jiao):Vid2Seq在YouCook2、ViTT 和ActivityNet Captions这三个数据集上刷新了SOTA。

Vid2Seq在YouCook2和ActivityNet Captions上的SODA指标比PDVC和UEDVC分别提高了3.5和0.3分。且E2ESG在Wikihow上使用域内純(chun)文本预训练,而Vid2Seq優(you)于这一方法。这些结果表明,预训练的Vid2Seq模型具有很强的密集事件标注能力(li)。

表6評(ping)估(gu)了密集视频标注模型的事件定位性能。与YouCook2和ViTT相比,Vid2Seq在處(chu)理密集视频标注作为单一序列生成任务时更(geng)勝(sheng)一籌(chou)。

然而,与PDVC和UEDVC相比,Vid2Seq在ActivityNet Captions上表现不佳(jia)。与这两种方法相比,Vid2Seq整(zheng)合了较少(shao)的关于时间定位的先验知(zhi)识,而另(ling)两种方法包括特定的任务組(zu)件,如事件计数器或(huo)单獨(du)为定位子任务训练一个模型。

实现細(xi)節(jie)

架构

视觉时间transformer编码器、文本编码器和文本解码器都有12層(ceng),12个头,嵌(qian)入維(wei)度768,MLP隱(yin)藏(zang)维度2048。

文本编码器和解码器的序列在预训练时被截(jie)斷(duan)或填(tian)充(chong)为L=S=1000个token,在微调期(qi)间,S=1000和L=256个token。在推理过程(cheng)中,使用波(bo)束(shu)搜(sou)索(suo)解码,跟(gen)蹤(zong)前4个序列并应用0.6的长度歸(gui)一化。

训练

作者使用Adam优化器,β=(0.9, 0.999),没有權(quan)重衰(shuai)減(jian)。

在预训练期间,使用1e^-4的学习率(lv),在前1000次叠(die)代中线性预熱(re)(從(cong)0开始),并在其余(yu)迭代中保(bao)持(chi)不變(bian)。

在微调期间,使用3e^-4的学习率,在前10%的迭代中线性预热(从0开始),其余90%的迭代中保持余弦(xian)衰减(降(jiang)至(zhi)0)。过程中,使用32个视频的批(pi)处理量(liang),并在16个TPU v4芯(xin)片(pian)上分割(ge)。

作者对YouCook2进行了40次epoch调整,对ActivityNet Captions和ViTT进行了20次epoch调整,对MSR-VTT进行了5次epoch调整,对MSVD进行了10次epoch调整。

结论

谷歌提出的Vid2Seq,是一种用于密集视频标注的新型视觉语言模型,它可以有效(xiao)地在无标签的旁白视频上进行大规模的预训练,并在各种下游密集视频标注的基准上取(qu)得了SOTA的结果。

作者介(jie)紹(shao)

论文一作:Antoine Yang

Antoine Yang是法國(guo)国立(li)计算(suan)机及自动化研究院(yuan)Inria和巴(ba)黎(li)高等(deng)师範(fan)学校(xiao)école Normale Supérieure的WILLOW團(tuan)隊(dui)的三年(nian)級(ji)博士生,导师为Antoine Miech, Josef Sivic, Ivan Laptev和Cordelia Schmid。

目前的研究重點(dian)是学习用于视频理解的视觉语言模型。他于2019年在华为諾(nuo)亞(ya)方舟(zhou)实验室实习,在2020年获得了巴黎綜(zong)合理工(gong)学院的工程学位和巴黎薩(sa)克(ke)雷(lei)国立大学的数学、视觉和学习碩(shuo)士学位,2022年在谷歌研究院实习。

參(can)考(kao)資(zi)料(liao):

https://ai.googleblog.com/2023/03/vid2seq-pretrained-visual-language.html返(fan)回(hui)搜狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:吉林长春九台市