楚楚街15秒广告女主角

楚楚街女主角的魅力

楚楚街的15秒广告中女主角的出现,让人眼前一亮。她是一个典型的中国女孩,长发扎成马尾,笑容灿烂,让人不禁感到亲切。她身着简约时尚的服装,气质优雅,脱颖而出。这位女主角的魅力在哪里呢?

首先,她具备了很高的颜值,不管是五官、面部比例还是肤色,都非常的优秀。其次,她的气质非常的出色。从她的举止、言谈和穿着打扮中,可以看出她是一个有内涵、有修养和有品味的女孩子。最重要的是,她身上散发出来的自信和魅力,让人不由自主地被吸引。

一位优美的模特

正是这位女主角的出现,让楚楚街的广告更加的生动有趣。她不仅是产品和品牌的代言人,更是一位让人爱不释手的女孩,让人们对于楚楚街的产品和品牌充满了期待和信心。

楚楚街的品质与服务

作为一家专注于女性时尚的电商平台,楚楚街一直以来都非常注重产品和品牌的质量。他们引进国际知名品牌,为消费者提供优质的产品。除了产品的质量外,他们还非常注重售前和售后服务。

时尚品牌

在售前,楚楚街的客服团队会及时为消费者解答问题,提供购物建议,并确保消费者有良好的购物体验。在售后,他们会及时为消费者处理退换货等问题,并提供完善的售后服务。这样的服务,让消费者在购物的过程中,可以享受到更好的体验,也增加了对楚楚街的信任和认可。

结论

楚楚街女主角的出现,不仅增加了广告的趣味性和吸引力,更展现了品牌的形象和精神。楚楚街一直致力于为消费者提供优质的产品和服务,为消费者带来更好的购物体验。如果你想购买时尚的服装和美妆产品,楚楚街是一个不错的选择。

美妆产品

请咨询楚楚街的客服获取更多的信息和帮助。

楚楚街15秒广告女主角特色

1、VIP价格SVIPSVIP:登陆在线赠送0W充值解锁

2、丰富多样的pvp模式选择,解锁更多新的装备道具,以超强实力成就非凡

3、关注的书籍实时更新,第一时间通知你~

4、远程遥控:您可以在手机上模拟遥控器控制电视功能,抛开传统遥控器

5、梦幻仙侠世界带来最经典的战斗玩法!

楚楚街15秒广告女主角亮点

1、【炫丽外观高颜值装备全靠打】

2、有不同的板块,大家可以根据需要随时选择相应的功能,非常方便。

3、附近加油站打折情况一目了然。

4、赛季天梯模式!为荣誉而战!单打独斗或组队厮杀随您选择!

5、视频直播,海量精彩的炉石视频;

VIPjiageSVIPSVIP:dengluzaixianzengsong0Wchongzhijiesuofengfuduoyangdepvpmoshixuanze,jiesuogengduoxindezhuangbeidaoju,yichaoqiangshilichengjiufeifanguanzhudeshujishishigengxin,diyishijiantongzhini~yuanchengyaokong:ninkeyizaishoujishangmoniyaokongqikongzhidianshigongneng,paokaichuantongyaokongqimenghuanxianxiashijiedailaizuijingdiandezhandouwanfa!谷(gu)歌(ge)RT-1模(mo)型(xing)讓(rang)壹(yi)個(ge)機(ji)器(qi)人(ren)幹(gan)幾(ji)份(fen)活(huo),700條(tiao)指(zhi)令(ling)成(cheng)功(gong)率(lv)達(da)97%

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):Joey

【新智元導(dao)讀(du)】Transformer在(zai)CV、NLP等(deng)領(ling)域(yu)可(ke)謂(wei)是(shi)大(da)放(fang)異(yi)彩(cai),這(zhe)次(ci)Google的(de)最(zui)新研(yan)究(jiu)將(jiang)Transformer應(ying)用(yong)在机器人模型處(chu)理(li)上(shang),來(lai)看(kan)看有(you)多(duo)驚(jing)艷(yan)。

机器學(xue)習(xi) (ML) 研究的多个子(zi)领域(如(ru)計(ji)算(suan)机視(shi)覺(jiao)和(he)自(zi)然(ran)語(yu)言(yan)处理)的許(xu)多最新進(jin)展(zhan),都(dou)是建(jian)立(li)在利(li)用大型、多樣(yang)化(hua)的數(shu)據(ju)集(ji)和能(neng)夠(gou)有效(xiao)吸(xi)收(shou)所(suo)有数据的表(biao)达模型。

但(dan)这種(zhong)高(gao)性(xing)能模型方(fang)法(fa)在机器人技(ji)術(shu)领域的应用卻(que)相(xiang)對(dui)較(jiao)少(shao)。

原(yuan)因(yin)很(hen)簡(jian)單(dan),首(shou)先(xian)缺(que)乏(fa)大規(gui)模和多样化的机器人数据,限(xian)制(zhi)了(le)模型吸收廣(guang)泛(fan)机器人經(jing)驗(yan)的能力(li)。

其(qi)次,缺乏可從(cong)此(ci)類(lei)数据集中(zhong)学习並(bing)有效泛化的表达力強(qiang)、可擴(kuo)展且(qie)速(su)度(du)足(zu)够快(kuai)的實(shi)時(shi)推(tui)理模型。

而(er)这次,谷歌推出(chu)的Robotics Transformer 1 (简稱(cheng)RT-1)是一种多任(ren)務(wu)模型,它(ta)可以(yi)標(biao)記(ji)机器人輸(shu)入(ru)和输出動(dong)作(zuo)(例(li)如,相机圖(tu)像(xiang)、任务指令和電(dian)机命(ming)令)以在運(yun)行(xing)时实現(xian)高效推理,并使(shi)实时控(kong)制成為(wei)可能。

RT-1吸收了大量(liang)数据,让机器人勝(sheng)任不(bu)同(tong)環(huan)境(jing)下(xia)的多种任务,从而提(ti)升(sheng)机器性能和泛化能力

简单来說(shuo),就(jiu)是让一个机器人同时干几份活。

該(gai)模型是在一个包(bao)含(han)130k个episode的大型真(zhen)实世(shi)界(jie)机器人数据集上訓(xun)練(lian)的,该数据集涵(han)蓋(gai)700多項(xiang)任务,使用Everyday Robots (EDR) 的13臺(tai)机器人在17个月(yue)內(nei)收集而成。

結(jie)果(guo)表明(ming),與(yu)现有技术相比(bi),RT-1可以顯(xian)著(zhu)改(gai)进对新任务、环境和对象(xiang)的零(ling)样本(ben)泛化。

Github鏈(lian)接(jie)小(xiao)编也(ye)貼(tie)心(xin)地(di)放在下面(mian)啦(la),有興(xing)趣(qu)的小夥(huo)伴(ban)趕(gan)緊(jin)去(qu)看看。

https://github.com/google-research/robotics_transformer

RT-1模型具(ju)體(ti)原理

RT-1建立在Transformer架(jia)構(gou)上,它能从机器人的相机中獲(huo)取(qu)图像歷(li)史(shi)记錄(lu)并以自然语言表达的任务描(miao)述(shu)作为输入,同时直(zhi)接输出标记化的动作。

RT-1的架构类似(si)於(yu)僅(jin)解(jie)碼(ma)器序(xu)列(lie)模型(decoder-only sequence model)的架构,该模型針(zhen)对具有因果掩(yan)蔽(bi)的标準(zhun)分(fen)类交(jiao)叉(cha)熵(shang)目(mu)标进行训练。

该模型将文(wen)本指令和一組(zu)图像作为输入,通(tong)過(guo)預(yu)训练的 FiLM EfficientNet 模型将它們(men)编码为标记,并通过 TokenLearner 对其进行壓(ya)縮(suo),然後(hou)经Transformer输出动作标记

其主(zhu)要(yao)功能包括(kuo):图像詞(ci)元化(Image Tokenization)、动作词元化(Action Tokenization)和词元压缩(Token Compression )。

图像tokenization:我(wo)们通过在 ImageNet 上预训练的 EfficientNet-B3 模型傳(chuan)遞(di)图像,然后将生(sheng)成的 9×9×512 空(kong)間(jian)特(te)征(zheng)图展平(ping)为81个标记。图像分词器以自然语言任务指令为条件(jian),并使用初(chu)始(shi)化为身(shen)份的 FiLM 層(ceng)在早(zao)期(qi)提取与任务相關(guan)的图像特征。

动作tokenization:机器人的动作維(wei)度是手(shou)臂(bi)运动的 7 个變(bian)量(x、y、z、滾(gun)动、俯(fu)仰(yang)、偏(pian)航(hang)、夾(jia)具打(da)開(kai)),3 个基(ji)本运动变量(x、y、偏航),以及(ji)一个額(e)外(wai)的離(li)散(san)变量在三(san)种模式(shi)之(zhi)间切(qie)換(huan)。

Token压缩:该模型自適(shi)应地選(xuan)擇(ze)图像Token的軟(ruan)组合(he),这些(xie)组合可以根(gen)据它们对使用元素(su)註(zhu)意(yi)模塊(kuai)TokenLearner 进行学习的影(ying)響(xiang)进行压缩,从而使推理速度提高2.4倍(bei)以上。

我们使用人类通过遠(yuan)程(cheng)操(cao)作提供(gong)的演(yan)示(shi),并用机器人執(zhi)行指令的文本描述对每(mei)一集进行注釋(shi)。

而这个机器人执行任务靠(kao)的是,「7个自由(you)度的手臂、一个兩(liang)指夹持(chi)器和一个移(yi)动底(di)座(zuo)」。

数据集中表示的一组高級(ji)技能包括拾(shi)取和放置(zhi)物(wu)品(pin)、打开和关閉(bi)抽(chou)屜(ti)、将物品放入和取出抽屉、将細(xi)長(chang)的物品直立放置、将物体打翻(fan)等操作。

整(zheng)合异質(zhi)数据源(yuan)

为进一步(bu)推动RT-1,我们使用从另(ling)一个机器人收集的数据对其进行训练,以測(ce)試(shi) (1) 模型在出现新数据源时是否(fou)保(bao)持其在原始任务上的性能,以及 (2) 模型是否在泛化方面得(de)到(dao)提升具有新的和不同的数据。

我们轉(zhuan)换收集的数据以匹(pi)配(pei)我们使用EDR收集的原始数据集的动作规範(fan)和邊(bian)界,并用任务指令标记每个数据集。

然后在每个训练批(pi)次中将Kuka数据与EDR数据以1:2的比例混(hun)合,以控制原始EDR技能的回(hui)歸(gui)。

图为从多个机器人收集数据时的训练方法

结果表明,RT-1能够通过觀(guan)察(cha)其他(ta)机器人的经验来获得新技能。

當(dang)RT-1在Kuka的垃(la)圾(ji)箱(xiang)揀(jian)选数据和机器人教(jiao)室(shi)的现有EDR数据上进行训练时,仅使用 EDR 数据进行训练时的22% 「准確(que)率躍(yue)升了近(jin)2倍」,达到39%。

当单獨(du)使用来自Kuka的拣选数据训练RT-1,并使用来自EDR机器人的拣选数据对其进行評(ping)估(gu)时,准确率为0%。

实验结果

为更(geng)好(hao)地理解RT-1的泛化能力,我们针对三个基線(xian)研究了它的性能:Gato、BC-Z和BC-Z XL(即(ji)与 RT-1 具有相同数量參(can)数的 BC-Z)。

并将其分为四(si)个类別(bie):

图为测试环境下RT-1与对照(zhao)组的表现

可見(jian)任务表现(Seen tasks performance):在训练期间观测的任务表现;

不可见任务表现(Unseen tasks performance):在看不见的任务上的表现,其中技能和对象在训练集中是分开的;

穩(wen)健(jian)性(Robustness):在干擾(rao)因素介(jie)入期间的性能和背(bei)景(jing)变化(新廚(chu)房(fang)、照明、背景場(chang)景)的性能表现

远景场景(long-horizon scenarios):真实厨房中SayCan类自然语言指令的执行

RT-1 的高性能和泛化能力可以通过SayCan实现远距(ju)离、移动操作任务。

SayCan的工(gong)作原理是将语言模型置于机器人可供性中,并利用少量提示将以自然语言表达的长期任务分解为一系(xi)列低(di)级技能。

我们在两个真实厨房中使用RT-1和其他两个基线(SayCan with Gato 和 SayCan with BC-Z)评估SayCan。

下面,“Kitchen2”构成了比“Kitchen1”更具挑(tiao)戰(zhan)性的泛化场景。用于收集大部(bu)分训练数据的模擬(ni)厨房是在 Kitchen1 之后建模的。

可以看到,SayCan with RT-1在 Kitchen1中的执行成功率为 67%,優(you)于其他基线。

由于新的看不见的厨房帶(dai)来的泛化困(kun)難(nan),SayCan with Gato 和 SayCan with BCZ 的性能下降(jiang),但RT-1的成功率并沒(mei)有因此下降。

参考(kao)資(zi)料(liao):

https://ai.googleblog.com/2022/12/rt-1-robotics-transformer-for-real.html返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:云南昭通威信县