奥迪主题广告

奥迪汽车:品质和创新的代名词

奥迪汽车公司成立于1909年,总部位于德国的英戈尔施塔特市。作为全球著名的汽车制造商之一,奥迪以其品质和创新的口碑而闻名于世。自其创立以来,奥迪始终秉持着“在技术和设计上追求卓越”的价值观。今天,奥迪的汽车产品不仅在德国本土备受欢迎,而且在全球范围内也有着广泛的市场。

奥迪汽车

奥迪汽车的品质和创新

奥迪汽车以其出色的品质和创新而闻名于世。该公司致力于在汽车制造领域追求卓越,并通过不断创新来提升其汽车的性能和安全性。奥迪汽车的设计师和工程师们在每一辆汽车上都投入了精力,以确保其性能和外观都是行业内的佼佼者。

汽车

如果你正在寻找一辆高品质、高性能的豪华汽车,那么奥迪汽车绝对是一个不错的选择。该公司的汽车不仅仅是一辆载具,它们代表了奥迪汽车公司的品牌价值和历史。

奥迪汽车的技术和安全性

奥迪汽车的设计师和工程师们一直致力于为客户提供最先进的汽车技术和安全性能。该公司的汽车配备了各种先进的技术,包括最新的安全系统、智能驾驶辅助功能和最先进的音响、娱乐和导航系统。

汽车技术

如果你想拥有一辆先进的、安全的豪华汽车,那么奥迪汽车绝对是一个值得考虑的品牌。该公司的汽车不仅具有出色的性能和优雅的外观,而且是行业内技术和安全性的领导者。

结论

总之,奥迪汽车是品质和创新的代名词。作为一家始终追求卓越的汽车制造商,奥迪汽车公司一直致力于为客户提供最好的汽车产品和服务。如果你正在寻找一辆高品质、高性能的豪华汽车,那么奥迪汽车绝对是一个不错的选择。

豪华汽车

奥迪主题广告特色

1、致力于帮助家长培养优秀的下一代的APP,家长朋友们可以在这里完成宝宝的胎教,启蒙,早教,等一系列操作

2、不同年龄段的孩子也可以找到相应的学习课程和教育知识。

3、【美妆点评】一边学习,一边说专业产品评价行业良心购物指数,我们是美妆行业的大众点评;

4、消息:统一应用消息查看渠道,更方便的查看消息和处理消息

5、“我的账单”支持近个月的账单查询功能。

奥迪主题广告亮点

1、无论是否有网络,只要缓存成功,监视没有网络。

2、通过标签搜索,可以快速找到相应类别的壁纸资源,在线查看;

3、【留言反馈】:用户可以把意见和建议以及评价等信息反馈给商家,以提高服务质量。

4、窝里快购app安卓下载

5、群聊之后,你可以很容易地和家人朋友同事保持联系。

zhiliyubangzhujiachangpeiyangyouxiudexiayidaideAPP,jiachangpengyoumenkeyizaizheliwanchengbaobaodetaijiao,qimeng,zaojiao,dengyixiliecaozuobutongnianlingduandehaiziyekeyizhaodaoxiangyingdexuexikechenghejiaoyuzhishi。【meizhuangdianping】yibianxuexi,yibianshuozhuanyechanpinpingjiaxingyeliangxingouwuzhishu,womenshimeizhuangxingyededazhongdianping;xiaoxi:tongyiyingyongxiaoxizhakanqudao,gengfangbiandezhakanxiaoxihechulixiaoxi“wodezhangdan”zhichijingeyuedezhangdanzhaxungongneng。AI讀(du)心(xin)升(sheng)級(ji)版(ban)!NUS、港(gang)中(zhong)文(wen)華(hua)人(ren)團(tuan)隊(dui)新(xin)作(zuo),高(gao)清(qing)視(shi)頻(pin)1秒(miao)生(sheng)成(cheng),準(zhun)確(que)率(lv)超(chao)SOTA 45%

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):Joey

【新智元導(dao)读】AI读心又(you)迎(ying)來(lai)升级版,来自(zi)新加(jia)坡(po)國(guo)立(li)大(da)學(xue)和(he)香(xiang)港中文大学的(de)兩(liang)位(wei)博(bo)士(shi)生開(kai)發(fa)的模(mo)型(xing)可(ke)從(cong)腦(nao)信(xin)號(hao)中重(zhong)建(jian)高質(zhi)量(liang)视频,准确率還(hai)比(bi)SOTA高45%。

現(xian)在(zai),AI不(bu)僅(jin)會(hui)读脑,还能(neng)用(yong)大脑信号生成视频!

之(zhi)前(qian)的研(yan)究(jiu)只(zhi)能通(tong)過(guo)脑部(bu)信号重建靜(jing)態(tai)圖(tu)像(xiang),但(dan)还不能以(yi)视频形(xing)式(shi)恢(hui)復(fu)連(lian)續(xu)性(xing)视覺(jiao)體(ti)驗(yan)。

這(zhe)次(ci)来自新加坡国立大学和香港中文大学的两位在读博士生提(ti)出(chu)了(le)壹(yi)個(ge)名(ming)叫(jiao)MinD-Video的AI模型,它(ta)可以根(gen)據(ju)收(shou)集(ji)的fMRI數(shu)据重建任(ren)意(yi)幀(zhen)速(su)率的高质量视频。

他(ta)們(men)表(biao)示(shi),模型在語(yu)義(yi)分(fen)類(lei)任務(wu)中的平(ping)均(jun)准确率為(wei)85%,在結(jie)構(gou)相(xiang)似(si)性指(zhi)数 (SSIM) 中的平均准确率为0.19,比之前的SOTA还高出了45%。

論(lun)文地(di)址(zhi):https://arxiv.org/pdf/2305.11675.pdf

項(xiang)目(mu)地址:https://mind-video.com/

值(zhi)得(de)一提的是(shi),这次的MinD-Video模型是之前他们的另(ling)一项成果(guo)MinD-Vis(利(li)用fMRI数据生成图像)的升级版,當(dang)時(shi)MinD-Vis还登(deng)上(shang)了CVPR2023。

从重建图像到(dao)视频難(nan)在哪(na)

从静止(zhi)图像到视频的难點(dian)在於(yu),视频是場(chang)景(jing)、動(dong)作和物(wu)体的连续、多(duo)樣(yang)的信息(xi)流(liu)。

每(mei)次fMRI掃(sao)描(miao)本(ben)质上代(dai)表了快(kuai)照(zhao)期(qi)間(jian)大脑活(huo)动的「平均值」,而(er)典(dian)型的视频每秒大約(yue)有(you)30帧(FPS)。

那(na)麽(me)如(ru)果一个fMRI帧需(xu)要(yao)2秒,那么在这段(duan)时间內(nei)60个视频帧——可能包(bao)含(han)各(ge)種(zhong)對(dui)象(xiang)、運(yun)动和场景變(bian)化(hua)被(bei)呈(cheng)现为视觉刺(ci)激(ji)。

因(yin)此(ci),以遠(yuan)高于fMRI时间分辨(bian)率的FPS解(jie)碼(ma)fMRI和恢复视频是一项复雜(za)的任务。

他们在论文中指出了从图像重建到视频重建要跨(kua)越(yue)的三(san)座(zuo)大山(shan):

在處(chu)理(li)动态神(shen)經(jing)活动时,血(xue)液(ye)动力(li)学反(fan)應(ying)会导致(zhi)时间延(yan)遲(chi),这种时间滯(zhi)後(hou)会使(shi)准确跟(gen)蹤(zong)大脑对刺激的實(shi)时反应变得具(ju)有挑(tiao)戰(zhan)性 我(wo)们之前开发的Mind-Vis模型缺(que)乏(fa)像素(su)级和语义级的指导,这可能会影(ying)響(xiang)該(gai)工(gong)具生成准确图像的有效(xiao)性 在我们的过程(cheng)中需要增(zeng)強(qiang)生成的一致性,同(tong)时确保(bao)保留(liu)一个 fMRI 帧内场景的动态。这种平衡(heng)是在一个 fMRI 时间範(fan)圍(wei)内准确穩(wen)定(ding)重建的關(guan)鍵(jian)。

模型設(she)計(ji)

具体来說(shuo),MinD-Video模型由(you)「fMRI编码器(qi)」和「加强版Stable Diffusion模型」两个模塊(kuai)构成,两个模块分开訓(xun)練(lian)然(ran)后一起(qi)進(jin)行(xing)微(wei)調(tiao)(finetuning)。

fMRI编码器在大規(gui)模数据集上训练,然后在目標(biao)数据集上通过对比学習(xi)进行微调,而基(ji)于Stable Diffusion的视频生成模块使用文本條(tiao)件(jian)从目标数据集中的视频进行训练。

第(di)一步(bu)是对收集的fMRI数据进行图像编码处理,通过第一个模块中的多个階(jie)段獲(huo)得对语义空(kong)间的更(geng)深(shen)入(ru)理解。

首(shou)先(xian),我们利用大规模無(wu)監(jian)督(du)学习( large-scale unsupervised learning)和脑部掩(yan)码建模(masked brain modeling)来学习一般(ban)视觉fMRI特(te)征(zheng)。

接(jie)下(xia)来,第一个模块中的编码器將(jiang)預(yu)处理后的fMRI傳(chuan)輸(shu)到Embedding,用作视频生成的条件。

我们使用註(zhu)釋(shi)数据集的多模态提取(qu)與(yu)语义相关的特征,通过对比学习在CLIP空间中训练fMRI编码器。

在第二(er)个模块中,学习的特征通过与Stable Diffusion视频生成模型的協(xie)同训练进行微调。

在视频重建中,我们将语义定义为视频中的动物、人和场景动态,例(li)如正(zheng)在跑(pao)动的人和快速移(yi)动的场景。

盡(jin)管(guan)fMRI的时间分辨率較(jiao)低(di),但它包含足(zu)夠(gou)的信息来恢复上述(shu)语义,下图顯(xian)示了使用我们的方(fang)法(fa)重建帧的幾(ji)个示例。

更重要的是,跑步、跳(tiao)舞(wu)、唱(chang)歌(ge)等(deng)动作,以及(ji)人物特寫(xie)、快动作、远景等场景动态,都(dou)可以实现正确重建。

这一结果也(ye)反映(ying)在我们的数值指标中,它同时考(kao)慮(lv)了帧语义和视频语义,包括(kuo)各种类別(bie)的运动和场景。

另外(wai),他们将生成的视频与多个之前的类似模型进行了对比,MinD-video可以生成具有更多语义意义内容(rong)的高质量视频。

关于AI重现大脑畫(hua)面(mian)的研究,这不是首次。

在11年(nian),UC伯(bo)克(ke)利的一项研究使用功(gong)能磁(ci)共(gong)振(zhen)成像(fMRI)和计算(suan)模型,初(chu)步重建了大脑的「动态视觉图像」。

也就(jiu)是说,研究者(zhe)重现了人类大脑看(kan)过的片(pian)段,但几乎(hu)是无法辨認(ren)。

?

而这次雖(sui)说准确度(du)和清晰(xi)度高了不少(shao),但離(li)真(zhen)正的AI读心还有很(hen)長(chang)的路(lu)要走(zou)。

參(can)考資(zi)料(liao):

https://futurism.com/the-byte/ai-generates-video-brain-signals返(fan)回(hui)搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:陕西安康汉滨区