创意的广告公司名称

创意广告公司:为您的品牌打造独特形象

创意广告公司是一家致力于为客户打造独特品牌形象的创意广告公司。我们以创新的思维,专业的技术和深厚的行业知识,帮助客户在激烈的市场竞争中脱颖而出,赢得更多的市场份额。

我们的团队由一群有经验的创意人才组成,我们不仅拥有独特的创意,还擅长在设计中融入客户的需求,使得每一个项目都能够完美呈现客户的品牌形象。

品牌形象

我们提供的服务非常丰富,包括品牌策略规划、广告创意设计、网站建设、社交媒体营销、搜索引擎优化等等。我们以客户为中心,根据客户的需求和预算,为客户量身定制合适的方案。

我们深知每个客户的需求都是独特的,因此我们不会使用同样的模板来处理不同的项目。我们的服务是个性化的,并随着时间的推移和客户的反馈进行调整和改进。

营销策略

我们的优势

创意广告公司的优势在于我们的专业和创新精神。我们的创意和设计是独特的,能够吸引目标受众的眼球,让他们对您的品牌产生兴趣和认同感。我们熟悉中国广告法规,保证每一个项目都符合法律法规要求。

我们的营销策略是有针对性的,能够准确地定位目标受众,让您的品牌传达到正确的受众群体。我们还提供搜索引擎优化,使您的网站能够在搜索引擎中排名靠前,吸引更多的流量。

搜索引擎优化

结论

如果您正在寻找一个有经验、专业且创新的广告公司,那么请联系创意广告公司。我们将竭尽全力为您打造一个独特的品牌形象,让您的品牌在市场中脱颖而出。

创意的广告公司名称特色

1、很多随机发生的事件,当然这个事件会给用户带来不同的收益。当然,收益也有好的也有坏的。

2、优化经验算法和价格,更清晰合理,录制属于自己的游戏视频,分享回忆随时随地。

3、查阅到网络课程,浏览到所有的课程资料;

4、每一类游戏都经过了精心的选择和设计,全面发掘大脑潜能。

5、直接运行批量SQL脚本文件,速度极快;

创意的广告公司名称亮点

1、权威交管局官方数据对接;

2、唯美仙侠畅爽修仙,自由贸易,各种装备都可以自由的交易变元宝;

3、魔天记d果盘版在线下载

4、【人气热播】

5、神兽临世,共征九州

henduosuijifashengdeshijian,dangranzhegeshijianhuigeiyonghudailaibutongdeshouyi。dangran,shouyiyeyouhaodeyeyouhuaide。youhuajingyansuanfahejiage,gengqingxiheli,luzhishuyuzijideyouxishipin,fenxianghuiyisuishisuidi。zhayuedaowangluokecheng,liulandaosuoyoudekechengziliao;meiyileiyouxidoujingguolejingxindexuanzehesheji,quanmianfajuedanaoqianneng。zhijieyunxingpiliangSQLjiaobenwenjian,sudujikuai;ICLR 2023傑(jie)出(chu)論(lun)文(wen)獎(jiang)得(de)主(zhu)分(fen)享(xiang):適(shi)配(pei)任(ren)意(yi)密(mi)集(ji)預(yu)測(ce)任務(wu)的(de)通(tong)用(yong)小(xiao)樣(yang)本(ben)學(xue)習(xi)器(qi)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

來(lai)源(yuan):微(wei)軟(ruan)亞(ya)洲(zhou)研(yan)究(jiu)院(yuan)

作(zuo)者(zhe):羅(luo)翀(chong)

【新智元導(dao)讀(du)】近(jin)期(qi),来自(zi)KAIST和(he)MSRA的研究員(yuan)提(ti)出了(le)首(shou)個(ge)适配所(suo)有(you)密集预测任务的小样本学习器 VTM,以(yi)輕(qing)量(liang)化(hua)的遷(qian)移(yi)成(cheng)本,賦(fu)予(yu)了計(ji)算(suan)機(ji)視(shi)覺(jiao)模(mo)型(xing)预测新任务標(biao)簽(qian)的能(neng)力(li),為(wei)计算机视觉中(zhong)密集预测任务的處(chu)理(li)以及(ji)小样本学习方(fang)法(fa)打(da)開(kai)了全(quan)新思(si)路(lu)。

國(guo)際(ji)学习表(biao)征(zheng)會(hui)議(yi) ICLR(International Conference on Learning Representations),被(bei)公(gong)認(ren)为當(dang)前(qian)最(zui)具(ju)影(ying)響(xiang)力的机器学习国际学術(shu)会议之(zhi)壹(yi)。

在(zai)今(jin)年(nian)的 ICLR 2023 大(da)会上(shang),微软亚洲研究院發(fa)表了在机器学习魯(lu)棒(bang)性(xing)、負(fu)責(ze)任的人(ren)工(gong)智能等(deng)領(ling)域(yu)的最新研究成果(guo)。

其(qi)中,微软亚洲研究院與(yu)韓(han)国科(ke)学技(ji)术院(KAIST)在雙(shuang)方学术合(he)作框(kuang)架(jia)下(xia)的科研合作成果,因(yin)出色(se)的清(qing)晰(xi)性、洞(dong)察(cha)力、創(chuang)造(zao)力和潛(qian)在的持(chi)久(jiu)影响獲(huo)評(ping) ICLR 2023 杰出论文奖。

论文地(di)址(zhi):https://arxiv.org/abs/2303.14969

VTM:首个适配所有密集预测任务的小样本学习器

密集预测任务是(shi)计算机视觉领域的一類(lei)重(zhong)要(yao)任务,如(ru)語(yu)義(yi)分割(ge)、深(shen)度(du)估(gu)计、邊(bian)緣(yuan)檢(jian)测和關(guan)鍵(jian)點(dian)检测等。對(dui)於(yu)這(zhe)类任务,手(shou)動(dong)标註(zhu)像(xiang)素(su)級(ji)标签面(mian)臨(lin)著(zhe)難(nan)以承(cheng)受(shou)的巨(ju)額(e)成本。因此(ci),如何(he)從(cong)少(shao)量的标注數(shu)據(ju)中学习並(bing)作出準(zhun)確(que)预测,即(ji)小样本学习,是該(gai)领域備(bei)受关注的課(ke)題(ti)。近年来,关于小样本学习的研究不(bu)斷(duan)取(qu)得突(tu)破(po),尤(you)其是一些(xie)基(ji)于元学习和对抗(kang)学习的方法,深受学术界(jie)的关注和歡(huan)迎(ying)。

然(ran)而(er),現(xian)有的计算机视觉小样本学习方法一般(ban)針(zhen)对特(te)定(ding)的某(mou)类任务,如分类任务或(huo)语义分割任务。它(ta)們(men)通常(chang)在設(she)计模型架構(gou)和訓(xun)練(lian)過(guo)程(cheng)中利(li)用特定于这些任务的先(xian)驗(yan)知(zhi)識(shi)和假(jia)设,因此不适合推(tui)廣(guang)到(dao)任意的密集预测任务。微软亚洲研究院的研究员们希(xi)望(wang)探(tan)究一个核(he)心(xin)問(wen)题:是否(fou)存(cun)在一種(zhong)通用的小样本学习器,可(ke)以从少量标記(ji)圖(tu)像中学习任意段(duan)未(wei)見(jian)过的密集预测任务。

一个密集预测任务的目(mu)标是学习从輸(shu)入(ru)图像到以像素为單(dan)位(wei)注釋(shi)的标签的映(ying)射(she),它可以被定义为:

其中 H 和 W 分別(bie)是图像的高(gao)与寬(kuan),输入图像一般包(bao)含(han) RGB 三(san)个通道,C_Τ 表示(shi)输出通道的数目。不同(tong)的密集预测任务可能涉(she)及不同的输出通道数目和通道屬(shu)性,如语义分割任务的输出是多(duo)通道二(er)值(zhi)的,而深度估计任务的输出是单通道連(lian)續(xu)值的。一个通用的小样本学习器 F,对于任何这样的任务 Τ,在給(gei)定少量标记样本支(zhi)持集 S_Τ(包含了 N 組(zu)样本 X^i 和标注 Y^i)的情(qing)況(kuang)下,可以为未见过的查(zha)詢(xun)图像 X^q 產(chan)生(sheng)预测,即:

如果存在适配任意密集预测任务的通用小样本学习器,那(na)麽(me)必(bi)須(xu)滿(man)足(zu)以下期望:

首先,它必须具备 e 統(tong)一的體(ti)系(xi)結(jie)构。该结构能夠(gou)处理任意密集预测任务,并共(gong)享大多数任务所需(xu)的參(can)数,以便(bian)获取可泛(fan)化的知识,从而能以小量样本学习任意未见过的任务。 其次(ci),学习器應(ying)该靈(ling)活(huo)地調(tiao)整(zheng)其预测机制(zhi),以解(jie)決(jue)具有各(ge)种语义的未见过的任务,同時(shi)足够高效(xiao),以防(fang)止(zhi)过度擬(ni)合。

因此,微软亚洲研究院的研究员们设计并實(shi)现了小样本学习器视觉token匹(pi)配 VTM(Visual Token Matching),其可用于任意的密集预测任务。这是 首个适配所有密集预测任务的小样本学习器,VTM 为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新的思路。该工作获得了 ICLR 2023 杰出论文奖。

VTM 的设计灵感(gan)源于类比(bi)人类的思維(wei)过程:给定一个新任务的少量示例(li),人类可以根(gen)据示例之間(jian)的相(xiang)似(si)性快(kuai)速(su)將(jiang)类似的输出分配给类似的输入,同时也(ye)可以根据给定的上下文灵活變(bian)通输入和输出之间在哪(na)些層(ceng)面相似。研究员们使(shi)用基于图像塊(kuai)(patch)级别的非(fei)参数匹配实现了密集预测的类比过程。通过训练,模型被啟(qi)发出了捕(bu)捉(zhuo)图像块中相似性的能力。

给定一个新任务的少量标记示例,VTM 首先会根据给定的示例以及示例的标签调整其对相似性的理解,从示例图像块中鎖(suo)定与待(dai)预测图像块相似的图像块,通过组合它们的标签来预测未见过的图像块的标签。

图1:VTM 的整体架构

VTM 采(cai)用分层的編(bian)碼(ma)器-解码器架构,在多个层次上实现了基于图像块的非参数匹配。它主要由(you)四(si)个模块组成,分别为图像编码器 f_Τ、标签编码器 g、匹配模块和标签解码器 h。给定查询图像和支持集,图像编码器首先会獨(du)立(li)地提取每(mei)个查询和支持图像的图像块级表達(da)。标签编码器也会类似地提取每个支持标签的标记。在每个层次的标记给定後(hou),匹配模块会執(zhi)行(xing)非参数匹配,最終(zhong)由标签解码器推断出查询图像的标签。

VTM 的本質(zhi)是一个元学习方法。其训练由多个 episode 组成,每个 episode 模拟一个小样本学习问题。VTM 训练運(yun)用到了元训练数据集 D_train,其中包含多种有标签的密集预测任务示例。每个训练 episode 都(dou)会模拟数据集中特定任务 T_train 的小样本学习場(chang)景(jing),目标是在给定支持集的條(tiao)件(jian)下,为查询图像产生正(zheng)确的标签。通过多个小样本学习的經(jing)验,模型能够学习到通用的知识,以便快速、灵活地适应新的任务。在测試(shi)时,模型需要在训练数据集 D_train 中未包含的任意任务 T_test 上進(jin)行小样本学习。

在处理任意任务时,由于元训练和测试中的每个任务的输出维度 C_Τ 不同,因此使得为所有任务设计统一的通用模型参数成为了巨大挑(tiao)戰(zhan)。为了提供(gong)一个簡(jian)单而普(pu)适的解决方案(an),研究员们将任务轉(zhuan)換(huan)为 C_Τ 个单通道子(zi)任务,分别学习每个通道,并使用共享的模型 F 独立地对每个子任务进行建(jian)模。

为了测试 VTM ,研究员们還(hai)特别构建了 Taskonomy 数据集的一个变种,从而模拟未见过的密集预测任务的小样本学习。Taskonomy 包含各种标注过的室(shi)內(nei)图像,研究员们从中選(xuan)擇(ze)了十(shi)个具有不同语义和输出维度的密集预测任务,将其分为五(wu)部(bu)分用于交(jiao)叉(cha)验證(zheng)。在每个拆(chai)分方式(shi)中,兩(liang)个任务用于小样本评估(T_test),其余(yu)八(ba)个任务用于训练(T_train)。研究员们仔(zai)細(xi)构造了分區(qu),使得训练和测试任务彼(bi)此有足够的差(cha)異(yi),例如将边缘任务(TE,OE)分组为测试任务,以便对新语义的任务进行评估。

表1:在 Taskonomy 数据集上的定量比較(jiao)( Few-shot 基線(xian)在训练了来自其他(ta)分区的任务后,在需测试的分区任务上进行了 10-shot 学习,其中完(wan)全監(jian)督(du)的基线在每个 fold(DPT)或所有 fold(InvPT)上训练和评估了任务)

表1和图2分别定量与定性地展(zhan)示了 VTM 和两类基线模型在十个密集预测任务上的小样本学习性能。其中,DPT 和 InvPT 是两种最先进的监督学习方法,DPT 可独立地针对每个单一任务进行训练,而 InvPT 則(ze)可以聯(lian)合训练所有任务。由于在 VTM 之前还沒(mei)有针对通用密集预测任务开发的專(zhuan)用小样本方法,因此研究员们将 VTM 与三种最先进的小样本分割方法,即 DGPNet、HSNet 和 VAT,进行对比,并把(ba)它们拓(tuo)展到处理密集预测任务的一般标签空(kong)间。VTM 在训练期间没有訪(fang)问测试任务 T_test,并且(qie)僅(jin)在测试时使用了少量(10張(zhang))的标记图像,但(dan)它卻(que)在所有小样本基线模型中表现得最好(hao),并且在許(xu)多任务中的表现都具备与全监督基线模型比较的競(jing)爭(zheng)力。

图2:在 Taskonomy 的十个密集预测任务中,在新任务上仅提供十张标记图像的小样本学习方法的定性比较。在其他方法失(shi)敗(bai)的情况下, VTM 成功(gong)地学习了所有具有不同语义和不同标签表示的新任务。

在图2中,虛(xu)线上方的分别是真(zhen)实标签和两种监督学习方法 DPT 和 InvPT。虚线下方的是小样本学习方法。值得注意的是,其他小样本基线在新任务上出现了災(zai)难性的欠(qian)拟合,而 VTM 成功地学习了所有任务。实验說(shuo)明(ming),VTM 可以在極(ji)少量的标记示例(<0.004%的完全监督)上现表现出与完全监督基线类似的竞争力,并能够在相对较少的附(fu)加(jia)数据(0.1%的完全监督)下縮(suo)小与监督方法的差距(ju),甚(shen)至(zhi)实现反(fan)超(chao)。

總(zong)结来说,盡(jin)管(guan) VTM 的底(di)层思路非常简单,但它 具有统一的体系结构,可用于任意密集预测任务,因为匹配算法本质上包含所有任务和标签结构(例如,连续或離(li)散(san))。此外(wai),VTM 仅引(yin)入了少量的任务特定参数,就(jiu)能具备抗过拟合性与灵活性。未来研究员们希望进一步(bu)探究预训练过程中的任务类型、数据量、以及数据分布(bu)对模型泛化性能的影响,从而幫(bang)助(zhu)我(wo)们构建一个真正普适的小样本学习器。

参考(kao)資(zi)料(liao):

https://arxiv.org/abs/2303.14969返(fan)回(hui)搜(sou)狐(hu),查看(kan)更(geng)多

责任编輯(ji):

发布于:贵州铜仁石阡县