送礼创意广告

送礼创意广告:让你的礼物更有心意

送礼是一种沟通情感的方式,不仅能够表达关爱与感谢,更能够拉近彼此之间的距离。但是,如何让你的礼物更有心意?这里有一些送礼创意广告,帮助你打造最完美的礼物。

送礼的人

首先,我们推荐的是个性化定制礼物。无论是定制名字的钥匙扣,还是刻有纪念日的相框,这些礼物都能够让你的爱意更直接地传递给对方。此外,我们还可以根据对方的喜好来选择礼物,比如收集喜欢的音乐、电影等等,这些都能够打动对方的内心。

个性化定制礼物

优质礼物:让你的礼物更有品质

除了个性化定制礼物,我们还可以选择一些具有品质的礼物。这些礼物往往是由优质材料制作而成,不仅能够展现出高品质的感觉,同时也能够更好地表达我们的情感。比如可以选择高档巧克力、红酒等,这些礼物可以在口感和质感方面都发挥出很好的效果。

优质礼物

礼物送达:让你的礼物更有温度

最后,我们还需要关注礼物送达的方式。在送礼的过程中,我们可以选择一些更加温馨的方式来送达礼物。比如可以选择在特殊的日子送出礼物,或者选择在对方最需要的时候送出礼物,这些都能够更好地拉近彼此之间的距离。

礼物送达

结论

送礼不仅需要有心意,还需要有创意。通过选择个性化定制礼物、优质礼物以及更温馨的礼物送达方式,我们可以让我们的礼物更加完美。不管是送给家人、朋友还是恋人,这些送礼创意广告都能够帮助你打造最完美的礼物。

送礼创意广告随机日志

泗阳位于中国“十大新天府”之一的苏北平原,属长江三角洲地区,是淮海经济圈、长三角经济圈、沿运河城镇轴交叉辐射区。

1、有别于传统的“先看网页后判断”方案,网址云安全技术让您在查看网页第一时间即可得知安全状态;

2、新增视频、声音片段的声音降噪功能,新增文字批量编辑功能,优化录音功能,加入降噪、自动转为字幕等相关功能,新增轨道画面预览,可在预览素材画面更多,录屏新增支持分段录制,录屏新增的文字、图片列表,可管理水印收起

3、新增对DDR内存支持,增强对PhenomIICPU温度的检测读取,修正读取ACPI列表时出现的bug

4、设置软件的安装位置,建议安装在D盘,设置好之后点击下一步

5、修复部分游戏登录异常问题,优化模拟器弹窗和渲染功能,增加更多按键功能

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>Sam Altman、Hinton中(zhong)國(guo)首(shou)秀(xiu)!国內(nei)最(zui)硬(ying)核(he)AI内行(xing)盛(sheng)會(hui)圓(yuan)滿(man)閉(bi)幕(mu),国產(chan)大(da)模(mo)型(xing)「悟(wu)道(dao)3.0」全(quan)面(mian)開(kai)源(yuan)

新(xin)智(zhi)元(yuan)報(bao)道

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】這(zhe)壹(yi)屆(jie)的(de)智源大会,依(yi)然(ran)是(shi)星(xing)光(guang)熠(yi)熠,學(xue)術(shu)感(gan)爆(bao)棚(peng)。眾(zhong)大咖(ka)激(ji)辯(bian)超(chao)級(ji)AI,思(si)想(xiang)碰(peng)撞(zhuang)火(huo)花(hua)四(si)射(she),依然是絕(jue)不(bu)能(neng)錯(cuo)過(guo)的一届AI春(chun)晚(wan)!

就(jiu)在(zai)剛(gang)刚,一年(nian)一度(du)的国内「AI春晚」智源大会,圆满闭幕!

这場(chang)人(ren)工(gong)智能年度巔(dian)峰(feng)盛会上(shang),有(you)OpenAI、DeepMind、Anthropic、HuggingFace、Midjourney、Stability AI等(deng)耳(er)熟(shu)能詳(xiang)的明(ming)星團(tuan)隊(dui),有Meta、谷(gu)歌(ge)、微(wei)軟(ruan)等做(zuo)出(chu)征(zheng)服(fu)全世(shi)界(jie)产品(pin)的大廠(chang),有斯(si)坦(tan)福(fu)、UC伯(bo)克(ke)利(li)、MIT等世界頂(ding)尖(jian)学府(fu)。

GPT-4、PaLM-E、OPT、LLaMA等重(zhong)要(yao)工作(zuo)的作者(zhe)悉(xi)數(shu)出席(xi),為(wei)我(wo)們(men)講(jiang)解(jie)研(yan)究(jiu)成(cheng)果(guo)。这场大会堪(kan)稱(cheng)專(zhuan)業(ye)深(shen)度與(yu)創(chuang)意(yi)啟(qi)發(fa)兼(jian)具(ju),每(mei)個(ge)話(hua)題(ti)都(dou)被(bei)探(tan)討(tao)到(dao)極(ji)致(zhi)。

而(er)把(ba)大会推(tui)向(xiang)高(gao)潮(chao)的,無(wu)疑(yi)是圖(tu)靈(ling)獎(jiang)得(de)主(zhu)Yann LeCun、Geoffrey Hinton、以(yi)及(ji)OpenAI创始(shi)人Sam Altman的演(yan)讲了(le)。

这幾(ji)位(wei)超重磅(bang)大佬(lao)的亮(liang)相(xiang),可(ke)謂(wei)是亮點(dian)满满。

Geoffrey Hinton:超级AI風(feng)險(xian)緊(jin)迫(po)

在刚刚結(jie)束(shu)的論(lun)壇(tan)闭幕主题演讲中,图灵奖得主、深度学習(xi)之(zhi)父(fu)Hinton为我们構(gou)想了一个值(zhi)得深思的场景(jing)。

演讲开始,Hinton发問(wen)「人工神(shen)經(jing)網(wang)絡(luo)是否(fou)比(bi)真(zhen)正(zheng)的神经网络更(geng)聰(cong)明」?

是的,在他(ta)看(kan)來(lai),这可能很(hen)快(kuai)就会发生(sheng)。

正如(ru)前(qian)段(duan)時(shi)間(jian),Hinton離(li)職(zhi)谷歌,對(dui)辭(ci)职理(li)由(you)一言(yan)蔽(bi)之。他直(zhi)言对自(zi)己(ji)畢(bi)生工作感到後(hou)悔(hui),並(bing)对人工智能危(wei)险感到擔(dan)憂(you)。他多(duo)次(ci)公(gong)开称,人工智能对世界的危险比氣(qi)候(hou)變(bian)化(hua)更加(jia)紧迫。

同(tong)樣(yang),在智源大会上,Hinton再(zai)次談(tan)及AI风险。

如果一个在多臺(tai)数字(zi)計(ji)算(suan)機(ji)上運(yun)行的大型神经网络,除(chu)了可以模仿(fang)人類(lei)語(yu)言獲(huo)取(qu)人类知(zhi)識(shi),還(hai)能直接(jie)從(cong)世界中获取知识,会发生什(shen)麽(me)情(qing)況(kuang)呢(ne)?

顯(xian)然,它(ta)会变得比人类優(you)秀得多,因(yin)为它觀(guan)察(cha)到了更多的数據(ju)。

这種(zhong)設(she)想并不是天(tian)方(fang)夜(ye)譚(tan),如果这个神经网络能夠(gou)通(tong)过对图像(xiang)或(huo)視(shi)頻(pin)進(jin)行无監(jian)督(du)建(jian)模,并且(qie)它的副(fu)本(ben)也(ye)能操(cao)縱(zong)物(wu)理世界。

在最极端(duan)的情况下(xia),不法(fa)分(fen)子(zi)会利用(yong)超级智能操纵選(xuan)民(min),贏(ying)得戰(zhan)爭(zheng)。

如果允(yun)許(xu)超级智能自行制(zhi)定(ding)子目(mu)標(biao),一个子目标是获得更多權(quan)力(li),这个超级AI就会为了達(da)成目标,操纵使(shi)用它的人类。

張(zhang)宏(hong)江(jiang)与Sam Altman巅峰问答(da):AGI或將(jiang)十(shi)年内出現(xian)

今(jin)日(ri)上午(wu),Sam Altman也通过视频連(lian)線(xian)现身(shen)了。这是ChatGPT爆火之后,Sam Altman首次在中国公开演讲。

精(jing)彩(cai)摘(zhai)要:

- 當(dang)下AI革(ge)命(ming)影(ying)響(xiang)如此(ci)之大的原(yuan)因,不僅(jin)在於(yu)其(qi)影响的規(gui)模,还有进展(zhan)的速(su)度。这同时帶(dai)来紅(hong)利和(he)风险。

- 隨(sui)著(zhu)(zhe)日益(yi)強(qiang)大的AI系(xi)統(tong)的出现,加强国際(ji)间的通力合(he)作,建立(li)全球(qiu)信(xin)任(ren)是最重要的。

- 对齊(qi)仍(reng)是一个未(wei)解決(jue)的问题。GPT-4在过去(qu)8个月(yue)时间完(wan)成对齐工作,主要包(bao)括(kuo)擴(kuo)展性(xing)和可解釋(shi)性。

演讲中,Altman多次强調(tiao)全球AI安(an)全对齐与监管(guan)的必(bi)要性,还特(te)別(bie)引(yin)用了《道德(de)经》中的一句(ju)话:

千(qian)裏(li)之行,始于足(zu)下。

在他看来,人工智能正以爆发式(shi)的速度发展,未来十年可能就会出现超强AI。

因此,需(xu)要推进AGI安全,加强国际间的通力合作,并在相關(guan)的研究部署(shu)上对齐最为重要。

Sam Altman認(ren)为,国际科(ke)技(ji)界合作,是当下邁(mai)出建设性步(bu)伐(fa)的第(di)一步。特别是,應(ying)該(gai)提(ti)高在AGI安全方面技术进展的透(tou)明度和知识共(gong)享(xiang)机制。

另(ling)外(wai),Altman提到,目前OpenAI的主要研究目标集(ji)中在AI对齐研究上,即(ji)如何(he)讓(rang)AI成为一个有用且安全的助(zhu)手(shou)。

一是可扩展监督,嘗(chang)試(shi)用AI系统協(xie)助人类监督其他人工智能系统。二(er)是可解释性,尝试理解大模型内部运作「黑(hei)箱(xiang)」。

最終(zhong),OpenAI的目标是,訓(xun)練(lian)AI系统来幫(bang)助进行对齐研究。

演讲结束后,智源研究院(yuan)理事(shi)長(chang)张宏江与Sam Altman开启了隔(ge)空(kong)对话,一起(qi)探讨了如何让AI安全对齐的難(nan)题。

当被问及OpenAI是否会开源大模型,Altman称未来会有更多开源,但(dan)沒(mei)有具體(ti)模型和时间表(biao)。

另外,他还表示(shi)不会很快有GPT-5。

会后,Altman发文(wen)对这次受(shou)邀(yao)来智源大会演讲表示感謝(xie)。

LeCun:依然是世界模型的擁(yong)躉(dun)

在頭(tou)一天发言的又(you)一位图灵奖得主LeCun,仍然繼(ji)續(xu)推行自己的「世界模型」理念(nian)。

对于AI毀(hui)滅(mie)人类的看法,LeCun一直表示不屑(xie),认为如今的AI还不如一條(tiao)狗(gou)的智能高,还没有发展出真正的人工智能,这种担心(xin)實(shi)屬(shu)多余(yu)。

他解释道:AI不能像人类和動(dong)物一样推理和规劃(hua),部分原因是目前的机器(qi)学习系统在輸(shu)入(ru)和输出之间的计算步驟(zhou)是基(ji)本恒(heng)定的。

如何让机器理解世界是如何运作的,像人类一样預(yu)測(ce)行为后果,或将其分解为多步来计划復(fu)雜(za)的任務(wu)呢?

显然,自监督学习是一个路(lu)徑(jing)。相比强化学习,自监督学习可以产生大量(liang)反(fan)饋(kui),能够预测其输入的任何一部分。

LeCun表示,自己已(yi)经確(que)定未来几年人工智能的三(san)大挑(tiao)战,就是学习世界的表征、预测世界模型、利用自监督学习。

而构建人类水(shui)平(ping)AI的关鍵(jian),可能就是学习「世界模型」的能力。

其中,「世界模型」由六(liu)个獨(du)立模塊(kuai)組(zu)成,具体包括:配(pei)置(zhi)器模块、感知模块、世界模型、cost模块、actor模块、短(duan)期(qi)記(ji)憶(yi)模块。

他认为,为世界模型设计架(jia)构以及训练範(fan)式,才(cai)是未来几十年阻(zu)礙(ai)人工智能发展的真正障(zhang)碍。

被问到AI系统是否会对人类构成生存(cun)风险时,LeCun表示,我们还没有超级AI,何谈如何让超级AI系统安全呢?

最顶配「AI内行盛会」

轟(hong)轰烈(lie)烈的2023智源大会,可以說(shuo)是本年度国内AI領(ling)域(yu)规格(ge)最高的、最受矚(zhu)目的大会。

从创辦(ban)之初(chu),智源大会的本質(zhi)特征就很明确:学术、专业、前沿(yan)。

轉(zhuan)眼(yan)间,这场面向AI内行的年度盛会已经来到了第五(wu)个年头。

这次,2023智源大会继续延(yan)续每一届智源大会的傳(chuan)统,学术氛(fen)圍(wei)感依舊(jiu)爆棚。

2021年,第三届智源大会上,图灵奖得主Yoshua Bengio、北(bei)京(jing)大学教(jiao)授(shou)鄂(e)維(wei)南(nan)院士(shi)、清(qing)華(hua)大学国家(jia)金(jin)融(rong)研究院院长朱(zhu)民带来了主题演讲。

2022年,兩(liang)位图灵奖得主Yann LeCun和Adi Shamir、强化学习之父Richard Sutton、美(mei)国三院院士Michael I. Jordan、哥(ge)德爾(er)奖获得者Cynthia Dwork等重量级大佬做了分享。

而到了2023年,无疑是「星光最盛」的一届。

共有4位图灵奖得主Yann LeCun、Geoffrey Hinton、Joseph Sifakis和姚(yao)期智,以及OpenAI创始人Sam Altman、諾(nuo)貝(bei)尔奖得主Arieh Warshel、未来生命研究所(suo)创始人Max Tegmark、2022年吳(wu)文俊(jun)最高成就奖得主鄭(zheng)南寧(ning)院士和中国科学院张鈸(bo)院士等大佬參(can)与。

更为重要的是,继智源「悟道」大模型項(xiang)目连创「中国首个+世界最大」紀(ji)錄(lu)之后,「悟道3.0」进入「全面开源」的新階(jie)段。

「悟道3.0」是一个大模型系列(lie)。

具体来说,包括悟道·天鷹(ying)(Aquila)语言大模型系列、天秤(cheng)(FlagEval)大模型評(ping)测体系、「悟道·视界」视覺(jiao)大模型系列,以及多模態(tai)大模型系列。

语言大模型系列

悟道·天鹰(Aquila):全面开放(fang)商(shang)用许可

首先(xian)登(deng)场的是悟道·天鹰(Aquila)系列大模型,是首个具備(bei)中英(ying)雙(shuang)语知识,支(zhi)持(chi)国内数据合规需求(qiu)的开源语言大模型,并且已经全面开放商用许可。

这次开源的包括70億(yi)参数和330亿参数的基礎(chu)模型,AquilaChat对话模型,以及AquilaCode「文本-代(dai)碼(ma)」生成模型。

悟道 · 天鹰 Aquila 开源地(di)址(zhi):

https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila

性能 更强

在技术上,Aquila基础模型(7B、33B)在技术上继承(cheng)了GPT-3、LLaMA等的架构设计优点,替(ti)換(huan)了一批(pi)更高效(xiao)的底(di)層(ceng)算子实现、重新设计实现了中英双语的tokenizer,升(sheng)级了BMTrain并行训练方法,在Aquila的训练过程(cheng)中实现了比Magtron+DeepSpeed ZeRO-2 将近(jin)8倍(bei)的训练效率(lv)。

具体来说,首先是得益于一个并行加速训练框(kuang)架的新技术。

智源去年开源的大模型算法开源项目FlagAI,里面集成了BMTrain这样的新的并行训练方法。在训练过程中,还进一步优化了它的计算和通信以及重疊(die)的问题。

其次,智源率先引入了算子优化技术,跟(gen)并行加速方法集成到一起,进一步获得了性能的提速。

又学中文,又学英文的大模型

悟道·天鹰(Aquila)的发布(bu),为什么如此值得鼓(gu)舞(wu)?

因为很多大模型都「只(zhi)学英文」——只基于大量的英文语料(liao)训练,但悟道·天鹰(Aquila)又要学中文,又要学英文。

大家可能有親(qin)身体驗(yan):一个人学知识的时候,如果一直用英文就没问题,但如果一下学英文,一下学中文,难度就会爆棚。

所以,比起LLaMA、OPT这类以英文为主的模型,需要同时学习中英文知识的悟道·天鹰(Aquila)的训练难度提升了很多倍。

为了让悟道·天鹰(Aquila)針(zhen)对中文任务达到优化,在它的训练语料上,智源放了将近40%的中文语料。究其原因是智源希(xi)望(wang)悟道·天鹰(Aquila)不只能生成中文,还能读懂(dong)大量的中文世界的原生知识。

另外,智源还重新设计实现了中英双语的tokenizer(分詞(ci)器),这是为了更好(hao)地识别和支持中文的分词。

在训练和设计的过程中,针对中文任务,智源团队特意会权衡(heng)质量和效率两个维度决定分词器大小(xiao)。

在悟道·天鹰(Aquila)基础模型底座(zuo)上打(da)造(zao)AquilaChat对话模型(7B、33B)支持流(liu)暢(chang)的文本对话及多种语言类生成任务。

多輪(lun)对话

高考(kao)作文生成

此外,通过定義(yi)可扩展的特殊(shu)指(zhi)令(ling)规范,可以实现AquilaChat对其它模型和工具的调用,且易(yi)于扩展。

例(li)如,调用智源开源的AltDiffusion多语言文图生成模型,实现了流畅的文图生成能力。配合智源InstructFace多步可控(kong)文生图模型,它还可以輕(qing)松(song)实现对人臉(lian)图像的多步可控编辑。

文图生成

多步可控人脸编辑

AquilaCode-7B「文本-代码」生成模型,基于 Aquila-7B 强大的基础模型能力,以小数据集、小参数量,实现高性能,是目前支持中英双语的、性能最好的开源代码模型,经过了高质量过濾(lv)、使用有合规开源许可的训练代码数据进行训练。

此外,AquilaCode-7B分别在英偉(wei)达和国产芯(xin)片(pian)上完成了代码模型的训练,并通过对多种架构的代码+模型开源,推动芯片创新和百(bai)花齐放。

文本-代码生成

更合规、更幹(gan)凈(jing)的中文语料

相比国外的开源大模型,悟道·天鹰(Aquila)的最鮮(xian)明的特点就在于,它支持国内数据合规需求。

国外大模型可能具备一定的中文能力,但是几乎(hu)所有国外开源大模型使用的中文互(hu)聯(lian)网数据,都是从像 Common Crawl 这样的互联网数据集上抽(chou)取的。

但如果对Common Crawl语料进行分析(xi)可以发现,它100萬(wan)条里可用的中文网頁(ye)只有不到4万个,并且其中83%是海(hai)外的网站(zhan),在质量上明显不可控。

因此,悟道·天鹰(Aquila)并没有使用Common Crawl里的任何中文语料,而是用的智源自己过去三年多積(ji)累(lei)的悟道数据集。悟道中文数据集来自一万多个中国大陸(lu)网站,因此它的中文数据更加满足合规需要,更加干净。

總(zong)的来说,这一次的发布只是一个起点,智源的目标是,打造一整(zheng)套(tao)大模型进化叠(die)代流水线,让大模型在更多数据和更多能力的添(tian)加之下,源源不斷(duan)地成长,并且会持续开源开放。

值得註(zhu)意的是,悟道 · 天鹰(Aquila)在消(xiao)費(fei)级显卡(ka)上就可用。比如7B模型,就能在16G甚(shen)至(zhi)更小的显存上跑(pao)起来。

天秤(Flag Eval)大模型评测体系

一套安全可靠(kao)、全面客(ke)观的大模型评测体系对于大模型的技术创新和产业落(luo)地也十分重要。

首先,对于学术界来说,如果想要促(cu)进大模型的创新,就必須(xu)有一把尺(chi)子,可以去衡量大模型的能力和质量到底如何。

其次,对于产业界来说,绝大多数企(qi)业都会选擇(ze)直接调用已有的大模型,而不是从头研发。在挑选时,就需要一个评测体系来帮助判(pan)断。毕竟(jing),自研基础大模型依賴(lai)龐(pang)大的算力成本。研发一个300亿参数的模型,需要的经费包括算力、数据等,至少(shao)要两千万。

此外,是否有能力打造一套「自动化评测+人工主观评测」的大模型全面评價(jia)系统,并实现从评测结果到模型能力分析,再到模型能力提升的自动闭環(huan),已经成为基础大模型创新的重要壁(bi)壘(lei)之一。

为了解决这一痛(tong)点,智源研究院选择优先推出天秤(FlagEval)大模型评测体系及开放平台(flageval.baai.ac.cn)。

天秤(FlagEval)大模型评测体系及开放平台,旨(zhi)在建立科学、公正、开放的评测基準(zhun)、方法、工具集,协助研究人員(yuan)全方位评估(gu)基础模型及训练算法的性能,同时探索(suo)利用AI方法实现对主观评测的輔(fu)助,大幅(fu)提升评测的效率和客观性。

具体来说,天秤(FlagEval)大模型评测体系创新性地构建了「能力-任务-指标」三维评测框架,能够細(xi)粒(li)度刻(ke)畫(hua)基础模型的认知能力邊(bian)界,可视化呈(cheng)现评测结果。

目前,天秤(FlagEval)大模型评测体系包含(han)了总计600+评测维度,包括22个评测数据集和84,433道题目,更多维度的评测数据集正在陆续集成。

此外,天秤(FlagEval)大模型评测体系还将持续探索语言大模型评测与心理学、教育(yu)学、倫(lun)理学等社(she)会学科的交(jiao)叉(cha)研究,以期更加全面、科学地评价语言大模型。

30+能力×5种任务×4大类指标=600+维全面评测

视觉大模型系列

在计算机视觉方面,悟道3.0团队打造了具备通用场景感知和复杂任务處(chu)理能力的「悟道·视界」系列大模型。

其中,构建起「悟道·视界」底层基座的,正是这次6连发的SOTA技术:

多模态大模型「Emu」,预训练大模型「EVA」,视觉通用多任务模型「Painter」,视界通用分割(ge)模型,图文预训练大模型「EVA-CLIP」以及视频编辑技术「vid2vid-zero」。

1. Emu:在多模态序(xu)列中補(bu)全一切(qie)

Emu是一个接受多模态输入,产生多模态输出的大模型。基于多模态上下文学习技术路径,Emu能从图文、交错图文、交错视频文本等海量多模态序列中学习。

训练完成后,Emu能在多模态序列的上下文中补全一切,对图像、文本和视频等多种模态的数据进行感知、推理和生成,完成多轮图文对话、少样本图文理解、视频问答、文图生成、图图生成等多模态任务。

2. EVA:最强十亿级视觉基础模型

项目地址:https://github.com/baaivision/EVA

论文地址:https://arxiv.org/abs/2211.07636

EVA将语义学习模型(CLIP)和几何结构学习方法(MIM)相结合,并把标准的ViT模型扩大规模到了10亿参数进行训练。一舉(ju)在ImageNet分类、COCO檢(jian)测分割、Kinetics视频分类等廣(guang)泛(fan)的视觉感知任务中取得当时最强的性能。

3. EVA-CLIP:性能最强开源CLIP模型

项目地址:https://github.com/baaivision/EVA/tree/master/EVA-CLIP

论文地址:https://arxiv.org/abs/2303.15389

以视觉基础模型EVA为核心开发的EVA-CLIP,目前已经迭代至50亿参数。

和此前80.1%准确率的OpenCLIP相比,EVA-CLIP模型在ImageNet1K零(ling)样本top1准确率达到了82.0%。在ImageNet kNN准确率上,Meta最新发布的DINOv2模型和10亿参数的EVA-CLIP持平。

4. Painter:首创「上下文图像学习」技术路径

项目地址:https://github.com/baaivision/Painter

论文地址:https://arxiv.org/abs/2212.02499

通用视觉模型Painter建模的核心思想是「以视觉为中心」,通过将图像作为输入和输出,来获得上下文视觉信息(xi),从而完成不同的视觉任务。

5. 视界通用分割模型:一通百通,分割一切

视界通用分割模型具有强大的视觉上下文推理能力,只需給(gei)出一个或几个示例图像和视觉提示,模型就能理解用戶(hu)意图,并完成类似(si)分割任务。

簡(jian)單(dan)来说,用户在画面上标注识别一类物体,即可批量化识别分割同类物体,无论是在当前画面还是其他画面或视频环境(jing)中。

6. vid2vid-zero:业界首个零样本视频编辑技术

项目地址:https://github.com/baaivision/vid2vid-zero

论文鏈(lian)接:https://arxiv.org/abs/2303.17599

Demo地址:https://huggingface.co/spaces/BAAI/vid2vid-zero

零样本视频编辑技术「vid2vid-zero」,首次利用注意力机制的动态特性,并结合现有的图像扩散(san)模型,打造了一个无需額(e)外视频预训练,即可进行视频编辑的模型框架。现在,只需上传一段视频,然后输入一串(chuan)文本提示,就可以进行指定属性的视频编辑。

中国大模型研究的启蒙(meng)者

2018年11月成立的智源研究院是中国大模型研究的启蒙者,经过5年发展,更成为中国大模型研究的标桿(gan)。

与其他的机构与众不同地方在于,智源研究院是一家平台性机构。成立之初,智源研究院就将營(ying)造人工智能创新生态作为基本使命和任务之一。

从创立至今,智源都如何推动了中国大模型研究的发展?

其实,智源研究院的成立恰(qia)恰趕(gan)在了国外大模型萌(meng)芽(ya)初现的一个契(qi)机。

说起来,2015年成立的OpenAI研究的主要方向是探索通往(wang)AGI的路线,也不是大模型。

从2018年后,OpenAI才开始集中转向大模型,并在6月发布了有1.17亿参数的GPT。同年,谷歌还发布了大规模预训练语言模型BERT,有3亿参数。

所有人都注意到,2018年的整个产业趨(qu)勢(shi)、技术趋势都是做更大的模型。

随着模型所用算力增(zeng)长,摩(mo)尔定律(lv)变成所谓的「模型定律」,即训练大模型所用算力3-4个月翻(fan)一番(fan)。

也正是2018年,智源研究院成立,率先匯(hui)聚(ju)了AI领域的顶尖学者,开启了大模型探索。

由此,2021年,智源连着发布了悟道1.0,悟道2.0两代大模型。

据黃(huang)鐵(tie)軍(jun)介(jie)紹(shao),在2021年3月,悟道1.0发布会上,智源研判人工智能已经从「大煉(lian)模型」转变为「炼大模型」的新阶段,从此,「大模型」这个概(gai)念进入公众视野(ye)。

每年的智源大会,都会重述(shu)攀(pan)登AGI高峰的三大技术路线:大模型、生命智能和AI4Science。这三条路线不是孤(gu)立的,它们之间相互作用和影响。

如今,大模型湧(yong)现能力出现的主要原因来自,背(bei)后的海量数据。

语言数据本身蘊(yun)含着豐(feng)富(fu)的知识和智能,通过大模型方式将其提炼出来,用神经网络去表达复杂数据的背后规律。

这是大模型其中一条技术路线是能够通向AGI的合理之处。

这也就解释了,智源为什么最初将重心放在大模型上。2021年3月发布悟道1.0,紧接着6月发布了悟道2.0。

此外,除了大模型,在通往AGI的另外两条路「生命智能」和「AI4Science」上,智源也在不断探索。

2022年,智源发布了最高精度的仿真秀麗(li)线蟲(chong)。这次,智源将仿真线虫研究所用的生命模擬(ni)平台「天演-eVolution」开放,提供(gong)在线服务。

天演是超大规模精细神经元网络仿真平台,具有四项显著特点:当今效率最高的精细神经元网络仿真的平台;支持超大规模的神经网络仿真;提供一站式在线建模与仿真工具集;高质量可视化交互,支持实时仿真可视协同运行。

基于天演平台,实现对生物智能进行高精度仿真,探索智能的本质,推动由生物启发的通用人工智能。进一步地,天演团队已将天演接入我国新一代百亿亿次超级计算机-天河(he)新一代超级计算机。

通过「天演-天河」的成功(gong)部署运行,实现鼠(shu)腦(nao)V1视皮(pi)层精细网络等模型仿真,计算能耗(hao)均(jun)能降(jiang)低(di)約(yue)10倍以上,计算速度实现10倍以上提升,达到全球范围内最极致的精细神经元网络仿真的性能,为实现全人脑精细模拟打下堅(jian)实基础。

两年后的现在,智源再次发布悟道3.0系列大模型。

从定位上讲,自悟道2.0发布后,智源作为一个非(fei)盈(ying)利的平台性机构,不仅是做模型发模型,逐(zhu)漸(jian)偏(pian)向为构建大模型核心生态做出独特貢(gong)獻(xian)。

其中,就包括模型背后数据梳(shu)理,模型测试,算法测试,开源开放组織(zhi),以及算力平台等全方位布局(ju)。

智源为什么有这样一个转变?

因为智源深刻认识到,大模型本身不是大模型时代最主要的产品形(xing)态,而是一个体系化,以智力服务为特征的一个新的时代。

当前,大模型一定会不断持续演进,不变的是背后的技术迭代,即训练模型的算法。

妳(ni)每天所見(jian)的最新模型,不过是个固(gu)化的结果,重要的是训练模型的算法是否先进,成本是否有效降低,背后能力是否可解释、可控。

因此,作为一个平台机构,智源要做的是,把业界训练模型的算法汇聚成一个不断迭代的整体。

这项工作是必要的,智源不仅做大模型算法本身,同时也要花更多时间精力为大模型的技术体系发展添磚(zhuan)加瓦(wa)。

比如,智源推出了大型雲(yun)计算服务平台「九(jiu)鼎(ding)智算平台」,为大模型训练提供算力、数据、算法的支持。

当然,并不是仅憑(ping)智源一己之力,还有产学研一起以开放方式进行协作和迭代。

今年3月,智源发布了FlagOpen飛(fei)智大模型技术开源体系,是与多家产学研单位共同构建的大模型开源开放软件(jian)体系。

正如黄铁军院长所称,「我们希望在大模型已然成为人工智能产业发展的主导力量的当下,未来做更多的支撐(cheng)性工作,为这个时代贡献一份(fen)独特力量」。

或许你会问,今年的智源大会与往届相比最大特色(se)是什么?

风格一貫(guan),两个词总结下:专业和純(chun)粹(cui)。

智源大会的召(zhao)开没有任何现实目标,不关注产品如何、投(tou)資(zi)者如何。

在这里,业界大佬能够以专业角(jiao)度提出个人观点,做出判断,当然还包括顶级观点的碰撞、争论,不用去考慮(lv)諸(zhu)多现实因素(su)。

「AI教父」Geoffrey Hinton今年第一次参加智源大会,前段时间还因为后悔毕生工作离职谷歌。他发表了最新关于人工智能安全的观点。

一如既(ji)往的「樂(le)观派(pai)」Yann LeCun不会像多数人担忧人工智能风险,在他看来車(che)还没有造好就剎(sha)车太(tai)不合理,当前还是要努(nu)力发展更先进AI技术和算法。

同时,你也会看到会上观点的激烈交鋒(feng)。Max Tegmark讲述控制人工智能风险。雖(sui)和LeCun不能说完全对立,但也有很大差(cha)異(yi)。

这便(bian)是智源大会最大的看点,也是一贯的风格。

这一定位的独特性,从这些(xie)年来看,也是愈(yu)发重要。

人工智能的发展对全球、对中国的影响越(yue)来越大,因此大家需要一个场合,用纯粹方式输出自己的观点,包括思想碰撞、激烈争论。

这样的意义在于,只有越专业,越纯粹,越中立,越开放的会議(yi),越有利于大家更好的把握(wo)这样的一个高速发展的时代,同时还能第一整个对人工智能生态发展起独特的作用。

在国外,智源大会同样口(kou)碑(bei)极好,国际机构将智源大会作为与中国开展人工智能研究合作的一个窗(chuang)口。

智源这一名(ming)字由来,也是智能的源头。因此,举办智源大会已经成为促进人工智能生态发展一个标誌(zhi)性活(huo)动。

嘉(jia)賓(bin)陣(zhen)容(rong)之强大、议题设置之丰富、内容讨论之深度,这些都造就了独一无二的智源大会。

这场专属AI内行的顶级盛会,已成为中国AI领域的亮眼名片。

参考资料:

https://2023.baai.ac.cn/返(fan)回(hui)搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:广东韶关仁化县