欢乐火车,载着您的愉悦 (Happy train, carrying your joy)

欢乐火车,载着您的愉悦欢乐火车是一种主题乐园中的游乐设施,通常是以列车为载体,仿造火车的形象,并以可爱、有趣的方式呈现给游客。它们通常具有高度的互动性和家庭友好性,适合所有年龄层的人群。欢乐火车在全球范围内都非常受欢迎,并已成为主题公园的标志性项目之一。本文将从四个方面对欢乐火车做详细的阐述。 欢乐火车的历史欢乐火车的历史可以追溯到19世纪末,当时它被称为趣味铁路(pleasure railway)。最早的趣味铁路是在英国的游乐场中出现的,人们可以在其中乘坐小型的蒸汽列车或轻便的电车,穿越园区并欣赏美景。欢乐火车的概念后来传播到欧洲和美国,经过改进后,成为现代主题公园的标志性设施。 欢乐火车的种类欢乐火车有很多种类,用途和形状各异。其中一种最为普遍的欢乐火车是环绕主题公园的缆车,它通常贯穿整个游乐园,让游客可以从高处俯瞰景色。还有一种非常受欢迎的欢乐火车是卡通火车,它以可爱的卡通形象为主题,让孩子们感到非常亲切和有趣。此外,还有其他种类的欢乐火车,例如木质过山车、室内过山车等。 欢乐火车的乐趣欢乐火车的乐趣在于让游客感受到高速运动的刺激,同时还能欣赏景观。一些欢乐火车还有音乐和烟雾特效,让乘客感受到更加逼真的体验。对于一些小孩子而言,他们还会受到卡通角色的欢迎,这些角色会在火车上与他们互动。欢乐火车的乐趣不仅来自于骑车本身,还在于身临其境的游乐场景。 欢乐火车的发展趋势随着科技的发展,欢乐火车也在不断创新和进步。现代欢乐火车采用了更加先进的技术,例如虚拟现实技术,让游客可以仿佛置身于另一个世界。未来,欢乐火车将继续探索新的技术和创新,以提供更加刺激和逼真的体验。总之,欢乐火车是一项非常受欢迎的主题公园项目。它不仅能够让游客感受到一定程度的刺激,还能够欣赏景观和与卡通角色互动。随着科技的发展,欢乐火车将继续探索新的可能性,并为游客带来更加逼真和刺激的体验。 问答话题 1.欢乐火车适合哪些年龄层?欢乐火车适合所有年龄层的人群。对于小孩子而言,他们可以通过卡通角色和音乐等元素,享受到更多的乐趣。对于成年人而言,他们可以感受到高速运动的刺激,并欣赏风景。 2.欢乐火车有哪些经典项目?欢乐火车有很多经典项目,例如环绕主题公园的缆车、以卡通形象为主题的火车等。其中最为经典的欢乐火车项目之一是迪斯尼乐园的小火车,这是一座仿佛穿越时空的火车旅行,带领游客穿越各种风景和故事。

欢乐火车,载着您的愉悦 (Happy train, carrying your joy)随机日志

更新了创作学院的课程展示,快来学习吧

1、举例:搜素D盘下面所有jgp格式的文件,输入D:jpg(冒号后面有空格)

2、您可以直接从命令行向Mipony添加下载;这是语法:Miponyexe/dowloadl:[URL]

3、方便各大线下实体店能够随时随地的收款,推出的最新政策都能很好的获客引流,帮助店铺达到最高的营业水平,招揽更多顾客。

4、选择文件:您可以浏览单个MHT/MHTML文件或使用CTRL+选择文件一次浏览所有文件

5、在白框内键入您想要下载的歌曲/视频并按回车键

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>對(dui)話(hua)丨(shu)周(zhou)伯(bo)文(wen):通(tong)用(yong)大(da)模(mo)型(xing)如(ru)何(he)突(tu)破(po)垂(chui)直(zhi)行(xing)業(ye)場(chang)景(jing)?

作(zuo)者(zhe):王(wang)永(yong)昂(ang) 編(bian)輯(ji):董(dong)子(zi)博(bo)

來(lai)源(yuan):AI科(ke)技(ji)評(ping)論(lun)

圖(tu)片(pian)来源:由(you)無(wu)界(jie) AI工(gong)具(ju)生(sheng)成(cheng)

從(cong)京(jing)東(dong)離(li)開(kai)後(hou),周伯文已(yi)經(jing)很(hen)久(jiu)沒(mei)有(you)這(zhe)麽(me)興(xing)奮(fen)了(le)。

ChatGPT橫(heng)空(kong)出(chu)世(shi)攪(jiao)動(dong)乾(qian)坤(kun),如同(tong)壹(yi)聲(sheng)春(chun)雷(lei)驚(jing)醒(xing)各(ge)行各业的(de)从业者,讓(rang)他(ta)們(men)都(dou)不(bu)約(yue)而(er)同地(di)聽(ting)到(dao),AGI走(zou)進(jin)現(xian)實(shi)的腳(jiao)步(bu)声。

熱(re)潮(chao)之(zhi)下(xia),人(ren)们看(kan)到王慧(hui)文、王小(xiao)川(chuan)下场創(chuang)业,也(ye)看到百(bai)度(du)、阿(e)裏(li)虎(hu)踞(ju)龍(long)盤(pan)。周伯文作為(wei)IBM、京东兩(liang)家(jia)大廠(chang)的AI研(yan)究(jiu)院(yuan)前(qian)院長(chang),研究人工智(zhi)能(neng)基(ji)礎(chu)理(li)论與(yu)核(he)心(xin)前沿(yan)技術(shu)、應(ying)用及(ji)產(chan)业化(hua)超(chao)過(guo)25年(nian),早(zao)在(zai)2021年底(di)就(jiu)已创辦(ban)銜(xian)遠(yuan)科技,通过自(zi)研大模型,憑(ping)借(jie)生成式(shi)AI、多(duo)輪(lun)对话与人機(ji)協(xie)同技术,幫(bang)助(zhu)企(qi)业与消(xiao)費(fei)者完(wan)成人工智能新(xin)時(shi)代(dai)的产品(pin)创新和(he)數(shu)智化轉(zhuan)型。“与其(qi)說(shuo)是(shi)我(wo)自己(ji)決(jue)定(ding)在这一領(ling)域(yu)创业,不如说是这個(ge)事(shi)业找(zhao)到了我”,周伯文形(xing)容(rong)这是必(bi)須(xu)要(yao)做(zuo)的事,就像(xiang)有一種(zhong)使(shi)命(ming)感(gan)在催(cui)促(cu)他去(qu)行动。

周伯文畢(bi)业於(yu)中(zhong)科大,后赴(fu)美(mei)科羅(luo)拉(la)多大學(xue)波(bo)爾(er)德(de)分(fen)校(xiao)取(qu)得(de)博士(shi)学位(wei)。作为原(yuan)IBM Research美國(guo)總(zong)部(bu)人工智能基础研究院院长,在主(zhu)持(chi)AI相(xiang)關(guan)工作多年后回(hui)国,先(xian)后擔(dan)任(ren)京东集(ji)團(tuan)高(gao)級(ji)副(fu)总裁(cai)、集团技术委(wei)員(yuan)會(hui)主席(xi)、京东雲(yun)与AI总裁、京东人工智能研究院创始(shi)院长等(deng)職(zhi)位。作为京东AI的締(di)造(zao)者,負(fu)責(ze)京东AI的技术研究与业務(wu)拓(tuo)展(zhan),从0创建(jian)京东AI事业部、AI研究院、京东AI加(jia)速(su)器(qi),打(da)造智能供(gong)应鏈(lian)人工智能国家级开放(fang)平(ping)臺(tai),实现每(mei)天(tian)調(tiao)用量(liang)从0到百億(yi),主導(dao)了京东人工智能客(ke)服(fu)的技术重(zhong)構(gou)並(bing)啟(qi)动对外(wai)产品化,管(guan)理著(zhe)数十(shi)亿規(gui)模的技术服务业务及数千(qian)人规模的技术、产品、市(shi)场与銷(xiao)售(shou)一體(ti)化团隊(dui)。

2021年,周伯文預(yu)判(pan)到生成式AI將(jiang)在不远的未(wei)来爆(bao)發(fa),决定离开京东创办衔远科技,致(zhi)力(li)于以(yi)通用大模型能力帮助垂直领域企业开展产品创新与数智化转型,以AI重塑(su)商(shang)品價(jia)值(zhi);2022年,出任清(qing)華(hua)大学惠(hui)妍(yan)講(jiang)席教(jiao)授(shou)、電(dian)子工程(cheng)系(xi)长聘(pin)教授,并于同年5月(yue)创立(li)清华大学协同交(jiao)互(hu)智能研究中心,其研究方(fang)向(xiang)与GPT采(cai)用prompt驅(qu)动生成式AI的方式不謀(mou)而合(he)。

ChatGPT山(shan)雨(yu)欲(yu)来,周伯文也在朋(peng)友(you)圈(quan)发文:“我相信(xin),中国的OpenAI需(xu)要探(tan)索(suo)一條(tiao)新的道(dao)路(lu)!”豪(hao)情(qing)之下,求(qiu)賢(xian)若(ruo)渴(ke)。但(dan)与其他创业者不同,周伯文和衔远科技選(xuan)擇(ze)依(yi)托(tuo)数百亿级參(can)数规模与獨(du)特(te)的訓(xun)練(lian)方法(fa),让大模型在具備(bei)通用能力的基础上(shang),更(geng)擅(shan)长理解(jie)人与商品的关系,以生成式人工智能技术帮助企业重构从商品洞(dong)察(cha)、定位、設(she)計(ji)、研发到營(ying)销的全(quan)链路创新体系。

周伯文曾(zeng)在公(gong)开场合表(biao)示(shi),他的创业方向是率(lv)先将人工智能与傳(chuan)統(tong)产业进行融(rong)合,为企业数智化创新帶(dai)来更高价值,即(ji)实现通用大模型在垂直场景的能力突破。

近(jin)日(ri),AI科技评论記(ji)者与周伯文进行了一次(ci)对談(tan),以下是谈话实錄(lu),AI科技评论对內(nei)容做了不改(gai)變(bian)其原意(yi)的编辑整(zheng)理:

让AI学習(xi)人類(lei)的智慧,新的交互与协同範(fan)式

AI科技评论:ChatGPT带来了prompt这种交互方式,您(nin)認(ren)为相对过往(wang)的交互方式有何不同?

周伯文:我的研究方向之一就是AI和人的交互,并在交互中进行学习。人机交互和人机对话是不一樣(yang)的,通过人机交互AI能夠(gou)在过程中能学到东西(xi),所(suo)以这不是一个簡(jian)單(dan)執(zhi)行的任务,而是一种实现学习的手(shou)段(duan)。

像《论語(yu)》中所记載(zai)的,就是孔(kong)子和他七(qi)十二(er)个弟(di)子在交互中学习的故(gu)事。在西方,类似(si)的有柏(bai)拉图和亞(ya)里士多德的雅(ya)典(dian)学院,这些(xie)最(zui)古(gu)老(lao)的知(zhi)識(shi)与智慧的传承(cheng)都是通过人与人的对话完成的,老師(shi)通过与学生的交互帮助其更好(hao)地完成学习。

舉(ju)例(li)来说,如果(guo)老师让学生去倒(dao)杯(bei)一水(shui),这类简单的“命令(ling)-执行”动作很難(nan)增(zeng)长什(shen)么智慧;但如果換(huan)做老师教学生如何寫(xie)论文,并告(gao)知其在写作过程中遇(yu)到困(kun)难該(gai)怎(zen)样克(ke)服,这就是可(ke)以增长智慧的交互,也体现了我对人与AI协同交互的核心觀(guan)點(dian)。

AI的本(ben)質(zhi)就是与人类的协同和交互,它(ta)从交互中不斷(duan)学习,进而协同人类更好的解决問(wen)題(ti)。这个观点在不远的未来将愈(yu)发重要,同时也将面(mian)对技术和倫(lun)理層(ceng)面的更多挑(tiao)戰(zhan),最終(zhong)想(xiang)要守(shou)住(zhu)底線(xian)并不容易(yi)。像大家说的AI Alignment(AI对齊(qi)),人类能够把(ba)意誌(zhi)传遞(di)給(gei)AI,然(ran)后跟(gen)AI一起(qi)分解任务,让AI在过程中学习并实现人类的意志。这是一种新的协同方式,即协同交互智能。

AI科技评论:您认为通过交互達(da)到价值对齐是人类大腦(nao)和GPT协同的有效(xiao)方式嗎(ma)?人类与AI应该如何更好地协同?

周伯文:在生成式AI大爆发之后,通过与人协同交互进行学习的AI会越(yue)来越強(qiang)。

2002年諾(nuo)貝(bei)尔经濟(ji)学獎(jiang)得主丹(dan)尼(ni)尔·卡(ka)尼曼(man)在暢(chang)销書(shu)《思(si)考(kao),快(kuai)与慢(man)》(Thinking Fast And Slow)中提(ti)出人的思考有两种模式——系统1和系统2,系统1是快思考、直覺(jiao)判断;系统2是慢思考,要做大量的推(tui)理和计算(suan)。

最初(chu),人们认为AI更適(shi)合做“系统1”的工作,比(bi)如人臉(lian)识別(bie)、质檢(jian)就是基于“系统1”的模式识别。但我堅(jian)持认为,AI的真(zhen)正(zheng)价值在于System 2,即帮助人类更好地完成復(fu)雜(za)的邏(luo)辑推理任务。ChatGPT的出现驗(yan)證(zheng)了AI做系统2的可行性(xing),这意味(wei)着可以让AI去发现新知识,新知识的发现会帮助人类设计出更好的AI,比如对脑科学和计算優(you)化的发现,一个创造新知识的飛(fei)轮就出现了。飞轮效应正是指(zhi)AI可以让整个系统更好地发现新知识,这些新知识又(you)可以帮助设计更好的AI系统,从而形成一个良(liang)性循(xun)環(huan)。因(yin)此(ci),AI与知识和创新之間(jian)形成了一种相互促进的关系,这就要求AI和人类的协同方式必须转变。

我之前提出过一个“3+1”的研究方向,即以可信賴(lai)AI为研究基底和长期(qi)目(mu)標(biao),以多模態(tai)表征(zheng)交互、人机协同演(yan)繹(yi)、环境(jing)协同演化为研究着力点,核心是要做人机的协同共(gong)创,实现人类帮助AI创新、AI帮助人类创新的目标。

其中之一是多模态表征交互,这里可能存(cun)在着一个大一统理论。在2022年时,人们对此仍(reng)持懷(huai)疑(yi)态度,但隨(sui)着GPT-4的问世,这种多模态的统一表征交互已经比較(jiao)具有说服力了;另(ling)一点是人机协同交互。这在2022年时人们也抱(bao)持怀疑的态度,但现在这种交互方式已经变得更加可信,人们开始相信它很可能会发生;第(di)三(san)点是AI与环境的协同演化,这意味着AI不僅(jin)需要与人类协同,還(hai)必须自适应周圍(wei)的环境。我们在2022年年初率先提出了这一概(gai)念(nian),直到目前还没有看到在这个方向上取得成功(gong)的案(an)例,即便(bian)是OpenAI也没有。

学不来OpenAI,幹(gan)不过微(wei)軟(ruan),国内大模型创业要做減(jian)法

AI科技评论:Transformer 模型的特别之處(chu)在于采用了註(zhu)意力机制(zhi)(Attention) 来建模文本,我们注意到您很早就开展了与AI注意力机制相关的研究。

周伯文:Transformer的核心亮(liang)点,是自注意力机制和多頭(tou)机制。2017 年6月,Google Brain发表的 “Attention is All You Need” 中引(yin)入(ru)了自注意力(self-attention)机制和Transformer的概念。后来OpenAI的GPT也受(shou)这篇(pian)论文影(ying)響(xiang)頗(po)深(shen)。

在此之前,我作为通訊(xun)作者发表过第一篇引入多跳(tiao)自注意力(multi-hop self-attention)机制来改善(shan)编碼(ma)器的论文——“A Structured Self-Attentive Sentence Embedding”。这篇论文于2016年完成并上传到arXiv,2017年初在ICLR正式发表,我们也是首(shou)个提出这一机制的团队,更关鍵(jian)的这是第一个完全不考慮(lv)下遊(you)任务的自然语言(yan)表征模式。以前大家也使用过注意力或(huo)某(mou)种情況(kuang)下的自注意力,但都是依赖任务的。

AI科技评论:在这篇论文中,您有怎样的发现?这些发现又是怎样影响了后来Transformer的技术更叠(die)?

周伯文:我们當(dang)时在论文中提出,最好的表征方式是用結(jie)构化的自注意力去表征自然语言(NLP),这篇论文发表至(zhi)今(jin)已被(bei)引用超过2300次。

在此之前,OpenAI首席科学家Ilya Sutskever 认为最好的表征方式是“序(xu)列(lie)到序列(Seq2Seq)”,即训练模型从而把一个域的序列转化为另一个域的序列,比如机器翻(fan)譯(yi)中的对应源语言与目标语言;又或是在问题回答(da)中,问题是一个序列,回答是一个序列。在此基础上,对深层神(shen)经網(wang)絡(luo)表征的两者映(ying)射(she)关系进行学习。

但后来,深度学习專(zhuan)家、图靈(ling)奖得主Yoshua Bengio团队提出了一个“注意力机制”,其核心是在回答问题时,并非(fei)所有詞(ci)都同等重要;如果能根(gen)據(ju)问题与答案之间的对应关系识别出更关键的部分,繼(ji)而更加关注这部分,就能给出更好的答案。这种注意力模型很快就得到了非常(chang)廣(guang)泛(fan)的认可。2015年,我带领IBM的团队也在同期开始了基于“Seq2Seq+注意力机制”架(jia)构和思路的研究,并先后推出了幾(ji)个最早期的AI用自然语言写作的生成模型,相关论文也被引用超过3000次。

但我当时对论文内容其实并不滿(man)意,因为它存在一个问题,即注意力是基于给出答案后去构建的。这样训练的AI,形象(xiang)地比方,就像大学期末(mo)考試(shi)前问老师劃(hua)重点的学生,再(zai)去有針(zhen)对性(attention)的重点复习。这样AI雖(sui)然对特定问题的表现能有所提高,卻(que)并不具备通用性。所以我们提出了完全不依赖于给定的任务和輸(shu)出,只(zhi)基于输入自然语言的内在结构,通过AI多遍(bian)閱(yue)讀(du)去学会哪(na)些部分更重要及其相互之间的关系,这就是自注意力加上多头机制的表征学习。这种学习机制只看输入,更像学生在考前就多遍、系统性地学习理解課(ke)程,而不是基于考试重点去针对性、碎(sui)片性地学习,从而更逼(bi)近通用人工智能的目的,也大大增强了AI的学习能力。

AI科技评论:“Attention is All You Need”那(na)篇论文和您有怎样的淵(yuan)源?

周伯文:我们知道,所有这一波大模型都来自于Transformer,所以当妳(ni)看到模型里面有个T时,那这个T大概率是代表Transformer。我很榮(rong)幸(xing),在这方面做了一些前瞻(zhan)性的工作。2017年年底,来自谷(gu)歌(ge)的研究员发表“Attention is All you need”这篇给世界带来Transformer模型的里程碑(bei)式论文。而我们在2017 年年初发表的首次提出“多跳自注意力机制”的论文“A Structured Self-attentive Sentence Embedding”被引用。而这篇论文的第一作者Ashish Vaswani正是我在IBM指导过的学生。“Attention is All You Need”这篇论文的标题所表达的也正是由我们提出的 “自注意力很重要,多头很重要,但RNN或許(xu)没有我们以前想象中那么重要”的意思。

AI科技评论:您和OpenAI有哪些一致的技术判断?

周伯文:这篇论文和Transformer架构徹(che)底改变了一切(qie),它解决了模型长距(ju)离记憶(yi)的问题。Ilya Sutskever在近期一次采訪(fang)中回忆,OpenAI在这篇论文出现第二天就立刻(ke)彻底转向了Transformer架构。

我们知道,GPT与Bert的模型有着很大的不同,而Bert为什么开始很成功,后面却不如GPT的原因就在于:它既(ji)使用了从左(zuo)到右(you)的信息(xi),也使用了从右到左的信息。换句(ju)话说,Bert使用了未来的信息去帮助AI学习如何表征,而GPT坚持只基于过去的信息去预測(ce)下一个词是什么。OpenAI在这点上的做法与我们团队的思路一脈(mai)相承,即:盡(jin)量不要使用答案去学习。从注意力到自注意力,从BERT到GPT-3,核心思想都是当不再依赖输出或待(dai)预测词的下文等未来的信息时,又或当可以用更多的数据来更充(chong)分的训练AI模型时,我们开始看到AGI出现的可能性。

还有就是,OpenAI 认为大模型是通过自然语言去学习世界知识,从而把世界知识壓(ya)縮(suo)到大模型之中,GPT系列大模型和ChatGPT也是按(an)照(zhao)这个理念去推进的。我和团队的理念和願(yuan)景也是如此,即构建一个通用大模型,通过专业的训练让其在垂直领域发揮(hui)更高的价值和能力,将消费者的复杂情感、需求和体验,以及商品的创新、设计、品参、材(cai)质、功能等等,压缩进一个大模型,重构人与商品的二元(yuan)关系,以AI重塑商品价值。

AI科技评论:除(chu)了技术实力,OpenAI还有哪些地方,让您觉得有可取之处?

周伯文:不止(zhi)在技术判断上,OpenAI的整个商业打法都具有代表性,包(bao)括(kuo):生态的建立,宣(xuan)布(bu)新摩(mo)尔定律(lv),让 API 降(jiang)价90%等等,既引发广泛的关注,又能擴(kuo)展資(zi)本和用戶(hu)对大模型商业化应用的想象空间,并衍(yan)生出几近无限(xian)的应用场景。此外,OpenAI在伦理治(zhi)理、商业开发、生态技术、未来发展等方面的规划也十分清晰(xi)。

AI科技评论:中国会出现下一个OpenAI吗?

周伯文:做大模型的技术难度其实是超出很多中国创业者想象的。所以我并不建議(yi)国内公司(si)盲(mang)目跟随、复制“OpenAI+微软”的模式,因为大部分中国科技公司对经营的决策(ce)能力不如微软,对技术的判断能力又不如OpenAI。

OpenAI的成功是多方面因素(su)共同成就的,比方有Ilya Sutskever做技术判断,有Greg Brockman做功能,有Sam Altman来整合资源,包括AI对伦理、对社(she)会影响的研究,他们都做了。如果国内公司純(chun)粹(cui)去模仿(fang)OpenAI的话,彼(bi)此的距离只会越追(zhui)越远。

以数据的緯(wei)度能够看出OpenAI的技术判断力,因为世界上不是所有的数据都一样重要。为什么 OpenAI 选择用 Github 的程序语言去训练思維(wei)链?因为程序语言的语義(yi)、语法極(ji)其简单,执行过程的逻辑嚴(yan)謹(jin)。这也代表了OpenAI的一个特质和优勢(shi):不会盲目出擊(ji)。所以我认为,中国的AI发展要找到另一条路徑(jing),即依托通用大模型的能力从针对垂直场景的应用切入,这样反(fan)而更有可能取得成功。

生成式AI将会顛(dian)覆(fu)现有的消费体验

AI科技评论:您为什么瞄(miao)準(zhun)消费领域?

周伯文:我在京东时,看到了以“人工智能做消费者需求和产品设计动态匹(pi)配(pei)”的巨(ju)大商机。2021年,我决定离职创业,去做针对垂直行业的通用大语言模型(大语言模型当时还没有爆发),就是希(xi)望(wang)将消费者所有的行为从非特定场景中cover进来。我们知道,周一到周五(wu)的时空场景是不一样的,白(bai)领或其他职业的关注点也是不一样的,在这些影响購(gou)物(wu)行为的文化符(fu)號(hao)背(bei)后,是消费者复杂的情感、体验以及对产品的选择逻辑,这正是企业需要的寶(bao)貴(gui)信息。供给側(ce)在做产品时,包括创意、设计、品参、功能、材质以及品牌(pai)的定位、slogan、marketing、广告、营销、宣传图片等等,所有这一切因素的背后其实都有着很强的对应关系。

这种对应关系,此前人类从来没有打通过。做企划、营销、销售的从业者,都只搞(gao)明(ming)白了他们各自负责的环節(jie)。而我们是要做全球(qiu)首个商品供应链的通用大模型,也就是要将所有这些信息全部高保(bao)真压缩到一个通用模型中,并基于这个大模型賦(fu)能企业产品的全生命周期, 包括:机会洞察(Discover)、产品定义(Define)、方案设计(Design)、驱动研发(Develop)、营销转化(Distribute)。如此一来,企业能够更高效地发现创新机会,更具创意地设计和生产,更有效果地进行营销推广、觸(chu)达用户并完成转化。

AI科技评论:商业模式上,这样似乎(hu)要更加先进一些。

周伯文:对于任何一个创业团队而言,在具备大模型的通用技术能力后,能否(fou)培(pei)養(yang)出更专业的能力十分重要。目前GPT的突破主要在其通用能力上,但对于特定行业和垂直领域的价值还有待开发,比如:GPT可以畫(hua)很逼真的藝(yi)术画,但是画不了电路图,因为它对物理知识的专門(men)学习并不深入,相关判断上也不够专业。

所以,我认为需要有这样一个工具(具备专业能力的通用大模型),让消费者更容易找到、也更愿意去购買(mai)所需的商品,这可能会完全改变人们现有的购物路径。生成式AI能够将海(hai)量的商业信息压缩到这类大模型之中,从而学习商品供应链各个环节,并以消费者为中心提升(sheng)关键环节效率。这是在2021年就已经产生的想法和创意。

衔远科技就是在研发一个具备通用能力的大模型,这个大模型尤(you)其在链接(jie)商品和消费者方面具备专长。我们有37項(xiang)大模型评测指标,其中2/3是推理能力、计算能力等通用能力,还有十几项专门应用于产品和消费者的連(lian)接,以实现“让每一件(jian)商品都应需而生,让每一个消费者都得償(chang)所愿”的目标。

AI科技评论:生成式AI如何更好地跟諸(zhu)如电商等消费场景结合?

周伯文:人类要么只能搞明白企划这一塊(kuai)的业务逻辑,或者营销这一块的逻辑,AI却能将所有的业务链条打通。

消费者在如电商平台等场景中,需要很多专业的词匯(hui)才(cai)能找到所需的商品;但在另一侧,商家却不懂(dong)消费者的真实需求,只能通过电商交易来触达消费者、通过咨(zi)詢(xun)调研机构来进一步了解消费者。而在引入像ProductGPT这种多轮对话功能后,商家和消费者就商品的动态匹配效率会比市场调研更高效,从而让电商平台能够更深度地参与到商品的创新、设计、研发、营销推广等过程中。

在实際(ji)的商业社会中,需求侧和供给侧其实是有很强的对应关系。我们自主研发的领衔Collaborative Innovation Platform SaaS基于大模型的多模态理解、推理与生成能力,通过深刻洞察消费者、场景、商品、品参、研发,协助企业发现商业机会与产品创新。同时,衔远科技的ProductGPT多轮对话平台为企业的每个员工提供根据不同职业角(jiao)色(se)深度定制的个人助手,通过提供角色特定的技能与知识满足(zu)其特定的工作需求。例如,衔远科技的消费者研究个人助手会提供研究市场趨(qu)势、理解消费者需求、市场调研等专业技能与相关知识。

AI科技评论:您当年在京东已经使用生成式AI賺(zhuan)錢(qian)了,具体是怎么做到的?

周伯文:我在2019年就已经带领京东AI团队落(luo)地应用了通过生成式人工智能去创作商品文案并选择图片的工作,那也是京东的第一个生成式大模型。当时,我们的AI大模型主要完成三件事:

第一,能够自行阅读商品詳(xiang)情頁(ye)上的内容,通过分析(xi)直接生成这款(kuan)商品的 8- 9 个賣(mai)点;

第二,消费者在瀏(liu)覽(lan)某件商品时,大模型会通过针对不同消费者的行为数据分析,迅(xun)速找出哪几个卖点更能打动这名(ming)用户;

第三,AIGC会根据用户画像,围繞(rao)消费者最关注的卖点生成专屬(shu)的广告语。

在实行了一段时间后,商品推薦(jian)的转化率比之前提升了30%。消费者可能都没有意识到,自己在京东搜(sou)索购物时,看到的产品品类、描(miao)述(shu)其实是在他浏览商品的一瞬(shun)间,AIGC逐(zhu)字(zi)逐句根据用户的偏(pian)好、结合商品的卖点量身(shen)定制自动生成的。

AI科技评论:如何看待OpenAI开放API,这对行业来说意味着什么?

周伯文:以个人的经歷(li)来讲,我曾是IBM Watson集团的首席科学家。当时美国部分行业数据受到監(jian)管,这类企业一般(ban)是无法合作的,只能是私(si)有云部署(shu)方式。为此,在2015-2016年时我就坚定要做公有云。为实现这一点,就需要将Watson的AI能力API化。当时,由我主导了包括对话、自然语言理解等几十个 API 的上线。把这些API放在云平台上,现在IBM的AI业务主要以此营利(li)。

我在2017年年底回国,2018年4月发布了京东的人工智能开放平台。当时,国内基本是没有AI平台的,这也为京东带来了可观的收(shou)入。2019年,由我带领的京东 AI 团队就创造了1.7亿元营收,对于一个200人规模的团队这个成績(ji)是很不錯(cuo)的。

AI科技评论:业内有个认知,做垂直大模型風(feng)險(xian)很高,您怎么看?

周伯文:我认为,未来那些定义明確(que)、高价值的工作流(liu)程将由专业 AI 模型完成而不是通用 AI 模型。通用大模型在某个垂直场景做成功之后,再去进一步提升其基础能力,就很容易。另外,从垂直场景切入的话,算力、数据、算法方面,我们过去的積(ji)累(lei)都能更充分的发挥作用。所以在衔远科技,大模型在技术底层框(kuang)架上必须具备通用大模型技术的基础能力,并用科学的方法评估(gu),但同时也需要专业的训练。

2023年,因为ChatGPT的突然火(huo)爆,市场开始用AI 2.0来形容其带来的巨大潛(qian)力。另外,几乎所有的科技巨头都加入战局(ju),创投(tou)市场试图抓(zhua)住新风口(kou),市场环境也快速变化。GPT是一个系统性的创业机会,但仅仅复制、跟随、追趕(gan),风险高、难度大。

创立衔远科技后,我们已经和超过100家客户进行过交流,看到了真实的需求,通过不断优化大模型提高技术实现路径:“2022年,我们论证了这个场景的商业价值和技术可行性,这意味着就算是做大模型,我们也是和OpenAI在走不同的賽(sai)道,盈(ying)利模式也不同。

我想要做的是比现在GPT更好的世界知识压缩器,这需要互动性很好的数据,而数据顯(xian)然是与场景息息相关的。而什么样的数据擁(yong)有人类更高智慧的意义,这里面其实都有很多的理论工作要去做,都是我们未来值得探索的方向。返(fan)回搜狐(hu),查(zha)看更多

责任编辑:

发布于:黑龙江省双鸭山四方台区