广告牌设计北京

北京广告牌设计的重要性

北京是中国的首都,也是一个充满活力和竞争的城市。在这个大都市里,各种品牌和商家都在竞争中争夺消费者的关注。而在这个竞争激烈的市场中,广告牌设计的重要性变得尤为突出。

一张好的广告牌可以提高品牌知名度,增加销量,吸引更多的潜在客户。而一个差劲的广告牌设计则可能会被忽视,浪费宝贵的广告资源。因此,对于品牌和商家来说,一个好的广告牌设计是至关重要的。

作为一个有经验的销售人员,我深知广告牌设计的重要性。在我的职业生涯中,我已经见过太多次由于差劲的广告牌设计而导致的销售不佳的情况。因此,我相信每位品牌和商家都应该认真对待广告牌设计。

北京广告牌设计

北京广告牌设计的要素

一个好的广告牌设计需要考虑很多要素。首先,它必须与品牌形象相符。一个好的广告牌应该能够传达品牌的价值观、个性和特点。其次,它应该易于辨认和理解。一个好的广告牌应该能够在短时间内吸引消费者的注意力并传达所需的信息。最后,它应该具有美学价值。一个好的广告牌不仅仅是为了传递信息,还应该能够吸引消费者的眼球,让人们对品牌产生好感。

当然,这些要素只是广告牌设计中的一部分。一个好的广告牌设计需要综合考虑各种因素,包括目标受众、广告牌的位置、周围环境等等。因此,一个好的广告牌设计不仅需要具备一定的创意,还需要考虑周全。

北京广告牌设计要素

北京广告牌设计的未来趋势

随着科技的不断进步和社会的不断发展,广告牌设计也在不断变化。未来,我们可以看到越来越多的数字化广告牌、可变形广告牌和交互式广告牌等等。这些新型广告牌设计不仅能够提升广告效果,还能够给消费者带来全新的体验。

在未来,广告牌设计将越来越注重创意和交互性。它将融入更多科技元素,例如人工智能、虚拟现实和增强现实等等。而这些创意和科技元素将让广告牌设计更加精彩,吸引消费者的眼球,提升品牌价值。

北京广告牌设计的未来趋势

结论

总之,北京广告牌设计的重要性不可忽视。一个好的广告牌设计可以提高品牌知名度,吸引更多客户,增加销量。而一个差劲的广告牌设计则会浪费广告资源。因此,品牌和商家都应该认真对待广告牌设计,注重其要素,把握未来趋势。

广告牌设计北京随机日志

是一个专注年轻人的音乐短视频社区,用户可以选择歌曲,配以短视频,形成自己的作品。用户可以通过视频拍摄快慢、视频编辑(反复、闪一下、慢镜头)等技术让视频更具创造性。

1、新增多多儿歌原创作品,更新多部儿歌故事动画片;

2、QC0耳机有可控消噪功能,您可以在应用程序中调节耳机的消噪水平,决定想要听到的环境音量。SoundSportPulse耳机内置心率监视器,可以在应用程序中清楚地显示您的心率。

3、庞大的电台列表,想听什么就听什么,首创音乐智能识别,没有你不知道的歌曲,喜爱的电台节目随时录制

4、插件有搜索功能的,这个是一个隐藏的大招,在上图左上角,如果你是使用专业版插件,在左上角点击红色箭头处是可以看到一个搜索器设置界面的,你可以搜索条件有很多,包括价格、评论的数量、排名月销量等等,可以直接筛选到符合你条件的产品。

5、注意,如果是在加速的途中想要更换节点,那么建议请先停止加速,然后再更换节点哦。如果你的节点延迟都很高,那么建议点击右上角的刷新按钮来刷新延迟。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>ICLR 2023傑(jie)出(chu)論(lun)文(wen)獎(jiang)得(de)主(zhu)分(fen)享(xiang):適(shi)配(pei)任(ren)意(yi)密(mi)集(ji)預(yu)測(ce)任務(wu)的(de)通(tong)用(yong)小(xiao)樣(yang)本(ben)學(xue)習(xi)器(qi)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

來(lai)源(yuan):微(wei)軟(ruan)亞(ya)洲(zhou)研(yan)究(jiu)院(yuan)

作(zuo)者(zhe):羅(luo)翀(chong)

【新智元導(dao)讀(du)】近(jin)期(qi),来自(zi)KAIST和(he)MSRA的研究員(yuan)提(ti)出了(le)首(shou)個(ge)适配所(suo)有(you)密集预测任务的小样本学习器 VTM,以(yi)輕(qing)量(liang)化(hua)的遷(qian)移(yi)成(cheng)本,賦(fu)予(yu)了計(ji)算(suan)機(ji)視(shi)覺(jiao)模(mo)型(xing)预测新任务標(biao)簽(qian)的能(neng)力(li),為(wei)计算机视觉中(zhong)密集预测任务的處(chu)理(li)以及(ji)小样本学习方(fang)法(fa)打(da)開(kai)了全(quan)新思(si)路(lu)。

國(guo)際(ji)学习表(biao)征(zheng)會(hui)議(yi) ICLR(International Conference on Learning Representations),被(bei)公(gong)認(ren)为當(dang)前(qian)最(zui)具(ju)影(ying)響(xiang)力的机器学习国际学術(shu)会议之(zhi)壹(yi)。

在(zai)今(jin)年(nian)的 ICLR 2023 大(da)会上(shang),微软亚洲研究院發(fa)表了在机器学习魯(lu)棒(bang)性(xing)、負(fu)責(ze)任的人(ren)工(gong)智能等(deng)領(ling)域(yu)的最新研究成果(guo)。

其(qi)中,微软亚洲研究院與(yu)韓(han)国科(ke)学技(ji)术院(KAIST)在雙(shuang)方学术合(he)作框(kuang)架(jia)下(xia)的科研合作成果,因(yin)出色(se)的清(qing)晰(xi)性、洞(dong)察(cha)力、創(chuang)造(zao)力和潛(qian)在的持(chi)久(jiu)影响獲(huo)評(ping) ICLR 2023 杰出论文奖。

论文地(di)址(zhi):https://arxiv.org/abs/2303.14969

VTM:首个适配所有密集预测任务的小样本学习器

密集预测任务是(shi)计算机视觉领域的一類(lei)重(zhong)要(yao)任务,如(ru)語(yu)義(yi)分割(ge)、深(shen)度(du)估(gu)计、邊(bian)緣(yuan)檢(jian)测和關(guan)鍵(jian)點(dian)检测等。對(dui)於(yu)這(zhe)类任务,手(shou)動(dong)标註(zhu)像(xiang)素(su)級(ji)标签面(mian)臨(lin)著(zhe)難(nan)以承(cheng)受(shou)的巨(ju)額(e)成本。因此(ci),如何(he)從(cong)少(shao)量的标注數(shu)據(ju)中学习並(bing)作出準(zhun)確(que)预测,即(ji)小样本学习,是該(gai)领域備(bei)受关注的課(ke)題(ti)。近年来,关于小样本学习的研究不(bu)斷(duan)取(qu)得突(tu)破(po),尤(you)其是一些(xie)基(ji)于元学习和对抗(kang)学习的方法,深受学术界(jie)的关注和歡(huan)迎(ying)。

然(ran)而(er),現(xian)有的计算机视觉小样本学习方法一般(ban)針(zhen)对特(te)定(ding)的某(mou)类任务,如分类任务或(huo)语义分割任务。它(ta)們(men)通常(chang)在設(she)计模型架構(gou)和訓(xun)練(lian)過(guo)程(cheng)中利(li)用特定于这些任务的先(xian)驗(yan)知(zhi)識(shi)和假(jia)设,因此不适合推(tui)廣(guang)到(dao)任意的密集预测任务。微软亚洲研究院的研究员们希(xi)望(wang)探(tan)究一个核(he)心(xin)問(wen)题:是否(fou)存(cun)在一種(zhong)通用的小样本学习器,可(ke)以从少量标記(ji)圖(tu)像中学习任意段(duan)未(wei)見(jian)过的密集预测任务。

一个密集预测任务的目(mu)标是学习从輸(shu)入(ru)图像到以像素为單(dan)位(wei)注釋(shi)的标签的映(ying)射(she),它可以被定义为:

其中 H 和 W 分別(bie)是图像的高(gao)与寬(kuan),输入图像一般包(bao)含(han) RGB 三(san)个通道,C_Τ 表示(shi)输出通道的数目。不同(tong)的密集预测任务可能涉(she)及不同的输出通道数目和通道屬(shu)性,如语义分割任务的输出是多(duo)通道二(er)值(zhi)的,而深度估计任务的输出是单通道連(lian)續(xu)值的。一个通用的小样本学习器 F,对于任何这样的任务 Τ,在給(gei)定少量标记样本支(zhi)持集 S_Τ(包含了 N 組(zu)样本 X^i 和标注 Y^i)的情(qing)況(kuang)下,可以为未见过的查(zha)詢(xun)图像 X^q 產(chan)生(sheng)预测,即:

如果存在适配任意密集预测任务的通用小样本学习器,那(na)麽(me)必(bi)須(xu)滿(man)足(zu)以下期望:

首先,它必须具备 e 統(tong)一的體(ti)系(xi)結(jie)构。该结构能夠(gou)处理任意密集预测任务,并共(gong)享大多数任务所需(xu)的參(can)数,以便(bian)获取可泛(fan)化的知识,从而能以小量样本学习任意未见过的任务。 其次(ci),学习器應(ying)该靈(ling)活(huo)地調(tiao)整(zheng)其预测机制(zhi),以解(jie)決(jue)具有各(ge)种语义的未见过的任务,同時(shi)足够高效(xiao),以防(fang)止(zhi)过度擬(ni)合。

因此,微软亚洲研究院的研究员们设计并實(shi)现了小样本学习器视觉token匹(pi)配 VTM(Visual Token Matching),其可用于任意的密集预测任务。这是 首个适配所有密集预测任务的小样本学习器,VTM 为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新的思路。该工作获得了 ICLR 2023 杰出论文奖。

VTM 的设计灵感(gan)源于类比(bi)人类的思維(wei)过程:给定一个新任务的少量示例(li),人类可以根(gen)据示例之間(jian)的相(xiang)似(si)性快(kuai)速(su)將(jiang)类似的输出分配给类似的输入,同时也(ye)可以根据给定的上下文灵活變(bian)通输入和输出之间在哪(na)些層(ceng)面相似。研究员们使(shi)用基于图像塊(kuai)(patch)级别的非(fei)参数匹配实现了密集预测的类比过程。通过训练,模型被啟(qi)发出了捕(bu)捉(zhuo)图像块中相似性的能力。

给定一个新任务的少量标记示例,VTM 首先会根据给定的示例以及示例的标签调整其对相似性的理解,从示例图像块中鎖(suo)定与待(dai)预测图像块相似的图像块,通过组合它们的标签来预测未见过的图像块的标签。

图1:VTM 的整体架构

VTM 采(cai)用分层的編(bian)碼(ma)器-解码器架构,在多个层次上实现了基于图像块的非参数匹配。它主要由(you)四(si)个模块组成,分别为图像编码器 f_Τ、标签编码器 g、匹配模块和标签解码器 h。给定查询图像和支持集,图像编码器首先会獨(du)立(li)地提取每(mei)个查询和支持图像的图像块级表達(da)。标签编码器也会类似地提取每个支持标签的标记。在每个层次的标记给定後(hou),匹配模块会執(zhi)行(xing)非参数匹配,最終(zhong)由标签解码器推断出查询图像的标签。

VTM 的本質(zhi)是一个元学习方法。其训练由多个 episode 组成,每个 episode 模拟一个小样本学习问题。VTM 训练運(yun)用到了元训练数据集 D_train,其中包含多种有标签的密集预测任务示例。每个训练 episode 都(dou)会模拟数据集中特定任务 T_train 的小样本学习場(chang)景(jing),目标是在给定支持集的條(tiao)件(jian)下,为查询图像产生正(zheng)确的标签。通过多个小样本学习的經(jing)验,模型能够学习到通用的知识,以便快速、灵活地适应新的任务。在测試(shi)时,模型需要在训练数据集 D_train 中未包含的任意任务 T_test 上進(jin)行小样本学习。

在处理任意任务时,由于元训练和测试中的每个任务的输出维度 C_Τ 不同,因此使得为所有任务设计统一的通用模型参数成为了巨大挑(tiao)戰(zhan)。为了提供(gong)一个簡(jian)单而普(pu)适的解决方案(an),研究员们将任务轉(zhuan)換(huan)为 C_Τ 个单通道子(zi)任务,分别学习每个通道,并使用共享的模型 F 独立地对每个子任务进行建(jian)模。

为了测试 VTM ,研究员们還(hai)特别构建了 Taskonomy 数据集的一个变种,从而模拟未见过的密集预测任务的小样本学习。Taskonomy 包含各种标注过的室(shi)內(nei)图像,研究员们从中選(xuan)擇(ze)了十(shi)个具有不同语义和输出维度的密集预测任务,将其分为五(wu)部(bu)分用于交(jiao)叉(cha)验證(zheng)。在每个拆(chai)分方式(shi)中,兩(liang)个任务用于小样本评估(T_test),其余(yu)八(ba)个任务用于训练(T_train)。研究员们仔(zai)細(xi)构造了分區(qu),使得训练和测试任务彼(bi)此有足够的差(cha)異(yi),例如将边缘任务(TE,OE)分组为测试任务,以便对新语义的任务进行评估。

表1:在 Taskonomy 数据集上的定量比較(jiao)( Few-shot 基線(xian)在训练了来自其他(ta)分区的任务后,在需测试的分区任务上进行了 10-shot 学习,其中完(wan)全監(jian)督(du)的基线在每个 fold(DPT)或所有 fold(InvPT)上训练和评估了任务)

表1和图2分别定量与定性地展(zhan)示了 VTM 和两类基线模型在十个密集预测任务上的小样本学习性能。其中,DPT 和 InvPT 是两种最先进的监督学习方法,DPT 可独立地针对每个单一任务进行训练,而 InvPT 則(ze)可以聯(lian)合训练所有任务。由于在 VTM 之前还沒(mei)有针对通用密集预测任务开发的專(zhuan)用小样本方法,因此研究员们将 VTM 与三种最先进的小样本分割方法,即 DGPNet、HSNet 和 VAT,进行对比,并把(ba)它们拓(tuo)展到处理密集预测任务的一般标签空(kong)间。VTM 在训练期间没有訪(fang)问测试任务 T_test,并且(qie)僅(jin)在测试时使用了少量(10張(zhang))的标记图像,但(dan)它卻(que)在所有小样本基线模型中表现得最好(hao),并且在許(xu)多任务中的表现都具备与全监督基线模型比较的競(jing)爭(zheng)力。

图2:在 Taskonomy 的十个密集预测任务中,在新任务上仅提供十张标记图像的小样本学习方法的定性比较。在其他方法失(shi)敗(bai)的情况下, VTM 成功(gong)地学习了所有具有不同语义和不同标签表示的新任务。

在图2中,虛(xu)线上方的分别是真(zhen)实标签和两种监督学习方法 DPT 和 InvPT。虚线下方的是小样本学习方法。值得注意的是,其他小样本基线在新任务上出现了災(zai)难性的欠(qian)拟合,而 VTM 成功地学习了所有任务。实验說(shuo)明(ming),VTM 可以在極(ji)少量的标记示例(<0.004%的完全监督)上现表现出与完全监督基线类似的竞争力,并能够在相对较少的附(fu)加(jia)数据(0.1%的完全监督)下縮(suo)小与监督方法的差距(ju),甚(shen)至(zhi)实现反(fan)超(chao)。

總(zong)结来说,盡(jin)管(guan) VTM 的底(di)层思路非常简单,但它 具有统一的体系结构,可用于任意密集预测任务,因为匹配算法本质上包含所有任务和标签结构(例如,连续或離(li)散(san))。此外(wai),VTM 仅引(yin)入了少量的任务特定参数,就(jiu)能具备抗过拟合性与灵活性。未来研究员们希望进一步(bu)探究预训练过程中的任务类型、数据量、以及数据分布(bu)对模型泛化性能的影响,从而幫(bang)助(zhu)我(wo)们构建一个真正普适的小样本学习器。

参考(kao)資(zi)料(liao):

https://arxiv.org/abs/2303.14969返(fan)回(hui)搜(sou)狐(hu),查看(kan)更(geng)多

责任编輯(ji):

发布于:云南昆明盘龙区