2013年广告市场:规模大增!

2013年广告市场:规模大增!

随着互联网的快速发展和移动互联网的普及,网络广告已成为广告市场中最具活力的领域之一。在2013年,广告市场呈现出了规模大增的趋势,这对于整个广告行业来说,都是一个重要的里程碑。

网络广告的快速发展

随着互联网的快速发展,网络广告已经成为各大企业推广产品和服务、吸引用户的重要手段。网络广告的优势在于,可以大量的准确投放,而且费用相对传统广告更为低廉。在2013年,随着移动互联网的普及,网络广告进一步加速了其快速发展的步伐。

根据网络广告市场的统计数据显示,2013年网络广告市场规模达到了482.39亿美元,同比增长了16.7%。而且,在这个数字中,移动广告的增长速度更是惊人,同比增长了105.8%,达到了30.45亿美元。这说明,在未来,移动广告将是网络广告市场增长的主要动力之一。

品牌广告占据主导地位

在广告市场中,品牌广告一直占据着主导地位。2013年,品牌广告在整个广告市场中占比高达70%以上。而且,在这些品牌广告中,电子商务、汽车、金融、IT、电信等行业的品牌广告最为突出。

随着互联网的发展,品牌广告在网络广告中的比重也在不断加大。相比于搜索广告和信息流广告,品牌广告更加注重品牌的长期建设和影响力的提升。这就需要投资更多的资金和精力来进行品牌宣传,而这也是品牌广告能够占据主导地位的原因之一。

广告投放趋势多样化

在2013年,广告投放趋势多样化是一个比较明显的特点。除了品牌广告之外,搜索广告、信息流广告、视频广告、社交广告等广告形式也逐渐被广告主所接受。在这些不同形式的广告中,信息流广告和视频广告的投放量最大,而且增长速度也非常快。

信息流广告可以与内容相融合,更加接近用户的阅读体验,因此可以更容易地被用户接受。而视频广告则可以通过视觉和声音的双重冲击,更好地吸引用户的注意力。这也是这两种广告形式能够成为趋势的原因之一。

新媒体广告的崛起

在2013年,除了传统电视、广播、报纸等媒体之外,新媒体广告的崛起也是一个比较明显的趋势。新媒体广告主要指的是移动互联网、社交媒体等新兴的媒体形态。

在这些新兴媒体中,移动互联网的广告投放量和增长速度都非常惊人。另外,社交媒体也逐渐成为广告主的重要选择之一。在这些新媒体广告中,移动应用广告、微博广告、微信广告等的投放量逐年递增。

总结归纳

总体来看,2013年广告市场呈现出了规模大增、品牌广告占据主导地位、广告投放趋势多样化和新媒体广告的崛起等趋势。这些趋势都与互联网的快速发展和移动互联网的普及密不可分。在未来,随着新一轮科技革命的到来,广告市场的发展趋势将会更加多元化和个性化。

问答话题

问题一:什么是网络广告?

答:网络广告是指在互联网上进行的一种广告形式。它可以投放在网站、搜索引擎、社交媒体等各种互联网平台上,以吸引用户的注意力,提升产品或服务的知名度和销售量。

问题二:为什么品牌广告占据主导地位?

答:品牌广告注重品牌长期建设和影响力提升,需要进行更多的品牌宣传。相比于搜索广告和信息流广告,品牌广告需要更高的广告投放费用和投放精力。而且,品牌广告在网络广告中的比重也在逐年加大。这些都是品牌广告能够占据主导地位的原因之一。

问题三:2013年广告市场的发展趋势有哪些?

答:2013年广告市场的发展趋势主要表现为规模大增、品牌广告占据主导地位、广告投放趋势多样化和新媒体广告的崛起等方面。这些趋势都与互联网的快速发展和移动互联网的普及密不可分。

2013年广告市场:规模大增!随机日志

休息的时候可以和大家分享自己的所见所闻,都可以提高大家的一些见世面!

1、我们致力于打造高性能、顺畅体验以及不断完善、优化的精品应用

2、PS:设置成功后客户机无需重启立即生效!

3、软件及时高效地全面提供最新的新闻,具有丰富的资讯源

4、支持设置不计入业绩的商品了,业绩计算更灵活~

5、各位妈妈好呀,小柠檬又给大家带来新功能了。这一版主要做了一下升级:胎动计数增加了「连续计数」模式,大家可以根据需要,选择适合自己的模式;对以前的一些问题做了修复和优化。大家有什么需求,都可以来找我哦!

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>強(qiang)化(hua)學(xue)習(xi)也(ye)有(you)基(ji)礎(chu)模(mo)型(xing)了(le)!DeepMind重(zhong)磅(bang)發(fa)布(bu)AdA,堪(kan)比(bi)人(ren)類(lei)的(de)新(xin)環(huan)境(jing)適(shi)應(ying)能(neng)力(li)

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】强化学习也要(yao)進(jin)入(ru)預(yu)訓(xun)練(lian)時(shi)代(dai)了!

基础模型(foundation models)在(zai)監(jian)督(du)和(he)自(zi)监督学习問(wen)題(ti)上(shang)展(zhan)現(xian)出(chu)强大(da)的領(ling)域(yu)适应性(xing)(adaption)和可(ke)擴(kuo)展性(scalability),但(dan)强化学习领域仍(reng)然(ran)沒(mei)有基础模型。

最(zui)近(jin)DeepMind的Adaptive Agents團(tuan)隊(dui)提(ti)出了壹(yi)種(zhong)人-时間(jian)尺(chi)度(du)(human-timescale)自适应智能體(ti)AdA(Adaptive Agent),證(zheng)明(ming)經(jing)過(guo)大規(gui)模训练後(hou)的RL智能体也能具(ju)有通(tong)用(yong)上下(xia)文(wen)的学习能力,該(gai)算(suan)法(fa)可以(yi)像(xiang)人一樣(yang)快(kuai)速(su)适应開(kai)放(fang)式(shi)的具身(shen)3D问题。

論(lun)文鏈(lian)接(jie):https://arxiv.org/abs/2301.07608

在一個(ge)巨(ju)大的動(dong)態(tai)空(kong)间环境中(zhong),自适应智能体展现出即(ji)时的假(jia)設(she)驅(qu)动的探(tan)索(suo),能夠(gou)有效(xiao)地(di)利(li)用獲(huo)得(de)的知(zhi)識(shi),而(er)且(qie)可以接受(shou)第(di)一人稱(cheng)演(yan)示(shi)作(zuo)為(wei)提示(prompt)。

研(yan)究(jiu)人員(yuan)認(ren)为其(qi)适应性主(zhu)要來(lai)源(yuan)於(yu)三(san)个因(yin)素(su):

1. 在一个巨大的、平(ping)滑(hua)的和多(duo)样化的任(ren)務(wu)分(fen)布中进行(xing)元强化学习;

2. 一个參(can)數(shu)化的、基于註(zhu)意(yi)力的大规模記(ji)憶(yi)結(jie)構(gou)的策(ce)略(lve);

3. 一个有效的自动curriculum,在代理(li)能力的前(qian)沿(yan)對(dui)任务进行優(you)先(xian)排(pai)序(xu)。

實(shi)驗(yan)部(bu)分展示了與(yu)網(wang)絡(luo)规模、记忆長(chang)度和训练任务分布的豐(feng)富(fu)程(cheng)度有關(guan)的特(te)征(zheng)性扩展规律(lv);研究人员认为该结果(guo)为日(ri)益(yi)普(pu)遍(bian)和适应性强的RL智能体奠(dian)定(ding)了基础,智能体在开放领域环境仍然表(biao)现良(liang)好(hao)。

RL基础模型

人类往(wang)往能够在幾(ji)分鐘(zhong)內(nei)适应一个新的环境,這(zhe)是(shi)体现人类智能的一个关鍵(jian)特性,同(tong)时也是通往通用人工(gong)智能道路(lu)上的一个重要節(jie)點(dian)。

不(bu)管(guan)是何(he)种層(ceng)次(ci)的有界(jie)理性(bounded retionality),都(dou)存(cun)在一个任务空间,在这个空间中,智能体無(wu)法以zero-shot的方(fang)式泛(fan)化其策略;但如(ru)果智能体能够非(fei)常(chang)快速地從(cong)反(fan)饋(kui)中学习,那(na)麽(me)就(jiu)可能取(qu)得性能提升(sheng)。

为了在现实世(shi)界中以及(ji)在与人类的互(hu)动中发揮(hui)作用,人工智能体应该能够在「几次互动」中进行快速且靈(ling)活(huo)的适应,並(bing)且应该在可用数據(ju)量(liang)提升时繼(ji)續(xu)适应。

具体来說(shuo),研究人员希(xi)望(wang)训练出的智能体在測(ce)試(shi)时,只(zhi)需(xu)要在一个未(wei)見(jian)过的环境中給(gei)定几个episode的数据,就能完(wan)成(cheng)一个需要试錯(cuo)探索的任务,并能隨(sui)后將(jiang)其解(jie)決(jue)方案(an)完善(shan)为最佳(jia)的行为。

元强化学习(Meta-RL)已(yi)经被(bei)证明对快速的語(yu)境适应是有效的,然而,不过元RL在獎(jiang)勵(li)稀(xi)疏(shu)、任务空间巨大且多样化的环境中作用有限(xian)。

这項(xiang)工作为训练RL基础模型鋪(pu)平了道路;也就是说,一个已经在龐(pang)大的任务分布上进行了预训练的智能体,在测试时,它(ta)能以few-shot的方式适应廣(guang)泛的下遊(you)任务。

自适应智能体(AdA)能够在具有稀疏奖励的巨大开放式任务空间中进行人类时间尺度适应,不需要任何提示、微(wei)調(tiao)或(huo)訪(fang)问離(li)線(xian)数据集(ji)。

相(xiang)反,AdA表现出假设驱动的探索行为,利用即时获得的信(xin)息(xi)来完善其策略,能够有效地获取知识,在第一人称像素觀(guan)察(cha)的部分可观察的三維(wei)环境中,在几分钟内适应奖励稀疏的任务。

自适应智能体Ada

研究人员提出了一种基于记忆的元RL通用和可扩展的方法以生(sheng)成自适应智能体(AdA)

首(shou)先在XLand 2.0中训练和测试AdA,该环境支(zhi)持(chi)按(an)程序生成不同的三维世界和多人游戲(xi),具有丰富的动态性,需要智能体擁(yong)有足(zu)够的适应性。

该训练方法结合(he)了三个关键部分:1)指(zhi)导智能体学习的課(ke)程(curriculum);2)基于模型的RL算法来训练具有大规模注意力记忆的代理;以及,3)蒸(zheng)餾(liu)以实现扩展。

1. 开放端(duan)任务空间:XLand 2.0

XLand 2.0相比XLand 1.0扩展了生產(chan)规則(ze)的系(xi)統(tong),其中每(mei)條(tiao)规则都表達(da)了一个額(e)外(wai)的环境动态,从而具有更(geng)丰富、更多样化的不同过渡(du)功(gong)能。

XLand 2.0是一个巨大的、平滑的、多样化的适应问题的任务空间,不同的任务有不同的适应性要求(qiu),如实验、工具用法或分工等(deng)。

例(li)如,在一个需要实验的任务中,玩(wan)家(jia)可能需要识別(bie)哪(na)些(xie)物(wu)体可以有用地结合,避(bi)免(mian)死(si)胡(hu)同,然后优化他(ta)們(men)结合物体的方式,就像一个玩具版(ban)的实验化学。

每个任务可以进行一次或多次试验,试验之(zhi)间的环境會(hui)被重置(zhi),但智能体记忆不会被重置。

上圖(tu)中突(tu)出顯(xian)示的是兩(liang)个示例任务,即「Wrong Pair Disappears」和「Pass Over Wall Repeatedly」,展示了目(mu)標(biao)、初(chu)始(shi)物体、生产规则以及智能体需要如何与它们互动以解决任务。

2. 元强化学习

根(gen)据黑(hei)箱(xiang)元RL问题的设置,研究人员将任务空间定義(yi)为一組(zu)部分可观察的馬(ma)爾(er)科(ke)夫(fu)决策过程(POMDPs)。

对于一个给定的任务,试验的定义为从初始狀(zhuang)态到(dao)終(zhong)端状态的任意轉(zhuan)換(huan)序列(lie)。

在XLand中,當(dang)且僅(jin)当某(mou)个时间段(duan)??∈[10s, 40s]已经过去(qu)时,任务才(cai)会终止(zhi),每个任务都有具体规定。环境以每秒(miao)30幀(zhen)的速度變(bian)化,智能体每4帧观察一次,因此(ci)任务长度以时间为單(dan)位(wei),範(fan)圍(wei)为[75, 300]。

一个episode由(you)一个给定任务的试验序列组成。在试验邊(bian)界,任务被重置到一个初始状态。

在领域内,初始状态是確(que)定的,除(chu)了智能体的旋(xuan)转,它是统一随機(ji)抽(chou)样的。

在黑箱元RL训练中,智能体利用与广泛分布的任务互动的经验来更新其神(shen)经网络的参数,该网络在给定的状态观察中智能体的行动政(zheng)策分布提供(gong)参数。

如果一个智能体拥有动态的内部状态(记忆),那么元RL训练通过利用重復(fu)试验的结构,賦(fu)予(yu)该记忆以隱(yin)性的在线学习算法。

在测试时,这种在线学习算法使(shi)智能体能够适应其策略,而无需进一步(bu)更新神经网络權(quan)重,也就是说,智能体的记忆不是在试验边界被重置,而是在episode边界被重置。

3. 自动课程学习(Auto-curriculum learning)

鑒(jian)于预采(cai)样任务池(chi)的广度和多样性,智能体很(hen)難(nan)用均(jun)勻(yun)采样进行有效地学习:大多数随机采样的任务可能会太(tai)难(或太容(rong)易(yi)),无法对智能体的学习进度有所(suo)幫(bang)助(zhu)。

相反,研究人员使用自动化的方法在智能体能力的前沿選(xuan)擇(ze)相对「有趣(qu) 」(interesting)的任务,类似(si)于人类认知发展中的「近側(ce)发展區(qu)间」(zone of proximal development)。

具体方法为对现有技(ji)術(shu)中的no-op filtering和prioritised level replay(PLR)进行扩展,能够極(ji)大提升智能体的性能和采样效率(lv),最终成为了一个新興(xing)的课程,能够随著(zhe)时间的推(tui)移(yi)选择越(yue)来越复雜(za)的任务。

4. RL智能体

学习算法

RL算法选择Mueslie,輸(shu)入为一个歷(li)史(shi)相关的编碼(ma)(history-dependent encoding),输出为RNN或Transformer,AdA学习一个序列模型(LSTM)对后续多步预测價(jia)值(zhi)、行动分布和奖励。

记忆架(jia)构

在每个时间步,将像素观察、目标、手(shou)、试验和时间信息、生成规则、之前的行动和奖励嵌(qian)入化并合并为一个向(xiang)量。

这些观察嵌入順(shun)序输入到Transformer-XL中,其输出嵌入输入到MLP价值頭(tou)、MLP策略头和Muesli LSTM模型步、

不止few-shot

通过对Transformer-XL架构做(zuo)了一个簡(jian)单的修(xiu)改(gai),就可以在不增(zeng)加(jia)計(ji)算成本(ben)的情(qing)況(kuang)下增加有效的记忆长度。

由于在視(shi)覺(jiao)RL环境中的观察往往与时间高(gao)度相关,所以研究人员提出对序列进行子(zi)采样。为了确保(bao)在子采样点之间的观察仍然可以被关注到,使用一个RNN对整(zheng)个軌(gui)跡(ji)进行编码,可以總(zong)结每一步的最近历史。

结果表明,额外的RNN编码并不影(ying)響(xiang)模型中Transformer-XL变体的性能,但能够保持更遠(yuan)的记忆。

5. 蒸馏

对于训练的前40億(yi)步,研究人员使用一个额外的蒸馏損(sun)失(shi)用预训练教(jiao)師(shi)模型的策略来指导AdA的学习,整个过程也称之为kickstarting

教师模型通过强化学习从头开始进行预训练,使用与AdA相同的训练程序和超(chao)参数,但教师模型没有初始蒸馏,并且具有較(jiao)小(xiao)的模型规模:教师模型只有2300萬(wan)Transformer参数,而多智能体AdA拥有2.65亿参数。

在蒸馏过程中,AdA根据自己(ji)的策略行动,教师模型根据AdA观察到的轨迹提供目标Logits;使用蒸馏可以攤(tan)銷(xiao)昂(ang)貴(gui)的初始训练期(qi),并使智能体能够消(xiao)除在训练的初始階(jie)段学到的有害(hai)表征。

然后将蒸馏损失与Muesli结合起(qi)来,最小化模型预测的所有行动概(gai)率与教师策略在相应时间段预测的行动概率之间的KL-散(san)度。

研究人员還(hai)发现了一个有用的小操(cao)作,可以在蒸馏期间添(tian)加一个额外的L2正(zheng)则化项。

参考(kao)資(zi)料(liao):

https://arxiv.org/abs/2301.07608返(fan)回(hui)搜(sou)狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:江苏苏州相城区