创意迸发! 让你尽享意境美广告

创意迸发! 让你尽享意境美广告随着社会的进步和人们的审美需求的不断提高,广告也在不断变化,在形式、内容、传播方式上都有所创新。如今,人们对于广告的要求不仅仅是产品本身的卖点,更希望广告能够给自己带来一种美的享受和情感上的满足。在这种背景下,创意广告变得越来越受到人们的关注和喜爱,而创意迸发! 让你尽享意境美广告则成为了这种需求的最佳诠释。 什么是创意广告?创意广告指的是在产品广告中采用一种新颖、与众不同的表现形式,在传达产品信息的同时,通过艺术化的手法给人们带来视觉上的冲击和情感上的共鸣。创意广告通常会运用到诸多元素,如图形、音效、文字、配乐等,以及各种新媒体技术,如VR、AR等,使广告的表现形式更加多样化、生动化。 创意广告的优点创意广告具有许多优点。首先,它能够吸引人们的眼球,让人们对广告产生浓厚的兴趣,从而更好地传递产品信息。其次,创意广告能够使人们对广告产生记忆点,让广告更容易被人们记住和传播。最后,创意广告能够提高广告的效果,增加销量,提升品牌形象,带来更好的市场反应。 创意广告的发展趋势随着科技的不断发展和社会的不断变化,创意广告也在不断地更新和升级。越来越多的广告商开始采用虚拟现实、增强现实等新媒体技术来展示广告,并且将广告与社交媒体、小程序、短视频等新媒体平台进行结合,以适应人们日益变化的使用习惯。此外,创意广告在内容上也越来越注重讲述情感故事,以温暖人心,引起共鸣。 如何打造一份好的创意广告?打造一份好的创意广告需要注意以下几点。首先,要选择合适的广告媒介,根据目标用户的喜好和习惯,选择合适的平台进行推广,如社交平台、视频平台、贴吧等。其次,要注重内容创意和情感共鸣,通过讲述故事等方式来吸引人们的注意力,引起共鸣。最后,要注意创意表现形式,运用新颖有趣的技术手段来呈现广告,激发人们的好奇心和兴趣,从而更好地传递产品信息。 总结归纳随着人们审美需求的不断提高以及新媒体技术的不断变化,创意广告已经成为了广告行业的主流之一。创意广告能够吸引人们的眼球、提高广告效果、增加销量、提升品牌形象,是广告行业不可或缺的一部分。打造一份好的创意广告需要注意选择合适的媒介、注重内容和情感共鸣、注意创意表现形式等方面,以达到传递产品信息、提高品牌形象的目的。 问答话题Q1:创意广告究竟有哪些类型?A:创意广告的类型多种多样,包括但不限于视觉类、音效类、文字类、情感类、互动类等,其中视觉类广告是最常见的一种。Q2:创意广告与普通广告有什么不同?A:创意广告相对于普通广告,更加注重广告的艺术性和情感共鸣,能够更好地吸引人们的注意力、留下印象、引起共鸣,从而提高广告效果。Q3:哪些企业比较适合采用创意广告?A:创意广告适用于任何企业,不仅可以提高广告效果,还可以提升品牌形象,吸引更多的目标用户,但不同的企业需根据自身特点来选择合适的广告形式和媒介。

创意迸发! 让你尽享意境美广告 特色

1、快:纯线上机评,到货快。

2、找到你想看的智能在线推荐视频播放资源。

3、复印功能:手机拍照自动裁剪,支持身份证复印。小黄机取件。

4、基于先进的人工智能和大数据技术,一键为用户生成大规模个性化高质量的视频创意内容

5、九幽仙域应用宝最新版

创意迸发! 让你尽享意境美广告 亮点

1、游戏内自行车款式众多,零件部件自行搭配。

2、意料之外的刺激障碍

3、用户在线了解各类最全的资源也会更省心,及时的了解最全的知识在里面。

4、在游戏当中玩家们需要快速的冲向终点,第个到达终点的人才会赢得胜利。

5、智能车牌识别:接入智能车牌识别系统,识别进出车辆的车牌,判断其身份。

kuai:chunxianshangjiping,daohuokuai。zhaodaonixiangkandezhinengzaixiantuijianshipinbofangziyuan。fuyingongneng:shoujipaizhaozidongcaijian,zhichishenfenzhengfuyin。xiaohuangjiqujian。jiyuxianjinderengongzhinenghedashujujishu,yijianweiyonghushengchengdaguimogexinghuagaozhiliangdeshipinchuangyineirongjiuyouxianyuyingyongbaozuixinban全(quan)文(wen)+視(shi)頻(pin)來(lai)了(le)!張(zhang)宏(hong)江(jiang)對(dui)話(hua)OpenAI Altman:AGI會(hui)從(cong)根(gen)本(ben)上(shang)改(gai)變(bian)文明(ming),不(bu)会很(hen)快(kuai)有(you)GPT-5

6月(yue)10日(ri),OpenAI創(chuang)始(shi)人(ren)Sam Altman以(yi)视频連(lian)線(xian)的(de)方(fang)式(shi)現(xian)身(shen)於(yu)中(zhong)國(guo)北(bei)京(jing)舉(ju)辦(ban)的2023智(zhi)源(yuan)人工(gong)智能(neng)大(da)会,這(zhe)是(shi)Altman首(shou)次(ci)对中国觀(guan)眾(zhong)發(fa)表(biao)演(yan)講(jiang)。

Altman在(zai)演讲中引(yin)用(yong)了《道(dao)德(de)經(jing)》,談(tan)及(ji)大国合(he)作(zuo),表示(shi)AI安(an)全始于足(zu)下(xia),各(ge)国間(jian)必(bi)須(xu)進(jin)行(xing)合作和(he)協(xie)調(tiao)。

隨(sui)後(hou)Altman接(jie)受(shou)了智源研(yan)究(jiu)院(yuan)理(li)事(shi)長(chang)张宏江的壹(yi)对一問(wen)答(da)。

张宏江博(bo)士(shi)目(mu)前(qian)任(ren)北京智源人工智能研究院理事长,同(tong)時(shi)擔(dan)任多(duo)家(jia)公(gong)司(si)的獨(du)立(li)董(dong)事和顧(gu)问。曾(zeng)任金(jin)山(shan)集(ji)團(tuan)執(zhi)行董事及首席(xi)执行官(guan)兼(jian)金山雲(yun)的首席执行官,是微(wei)軟(ruan)亞(ya)洲(zhou)研究院创始人之(zhi)一,曾担任副(fu)院长、微软亚太(tai)研发集团(ARD)首席技(ji)術(shu)官及微软亚洲工程(cheng)院(ATC)院长以及微软“傑(jie)出(chu)科(ke)學(xue)家”。

加(jia)盟(meng)微软之前,张宏江曾任美(mei)国矽(gui)谷(gu)的惠(hui)普(pu)實(shi)驗(yan)室(shi)任经理;此(ci)前還(hai)在新(xin)加坡(po)国立大学系(xi)統(tong)科学研究院工作。

Altman演讲核(he)心(xin)內(nei)容(rong):

當(dang)下人工智能革(ge)命(ming)影(ying)響(xiang)如(ru)此之大的原(yuan)因(yin),不僅(jin)在于其(qi)影响的規(gui)模(mo),也(ye)是其进展(zhan)的速(su)度(du)。这同时帶(dai)来紅(hong)利(li)和風(feng)險(xian)。 随著(zhe)日益(yi)強(qiang)大的 AI 系统的出现,全球(qiu)合作的重(zhong)要(yao)性(xing)从未(wei)如此之大。在一些(xie)重要的大事上,各国间必须进行合作和协调。推(tui)进 AGI 安全是我(wo)們(men)需(xu)要找(zhao)到(dao)共(gong)同利益點(dian)的最(zui)重要的領(ling)域(yu)之一。 对齊(qi)仍(reng)然(ran)是一個(ge)未解(jie)決(jue)的问題(ti)。GPT-4 花(hua)了八(ba)个月的时间完(wan)成(cheng)对齐方面(mian)的工作。但(dan)相(xiang)關(guan)的研究还在升(sheng)級(ji),主(zhu)要分(fen)為(wei)擴(kuo)展性和可(ke)解釋(shi)性兩(liang)方面。

问答環(huan)節(jie)核心内容:

十(shi)年(nian)内人類(lei)將(jiang)擁(yong)有强大的人工智能系统(AI System)。 OpenAI沒(mei)有相关的新的有关開(kai)源的时间表,开源模型(xing)具(ju)有優(you)勢(shi),但开源一切(qie)可能並(bing)不是一條(tiao)(促(cu)进AI发展的)最佳(jia)路(lu)线。 看(kan)明白(bai)神(shen)经網(wang)絡(luo)比(bi)看明白人类腦(nao)子(zi)容易(yi)多了。 在某(mou)个时候(hou),会嘗(chang)試(shi)做(zuo)GPT-5的模型,但不会是很快。不知(zhi)道具體(ti)GPT-5出现的时候。 AI安全需要中国研究者(zhe)的參(can)與(yu)和貢(gong)獻(xian)。

註(zhu):“AI对齐”是AI控(kong)制(zhi)问题中的最主要的问题,即(ji)要求(qiu)AI系统的目標(biao)要和人类的價(jia)值(zhi)观与利益相对齐(保(bao)持(chi)一致(zhi))。

以下为訪(fang)谈全文:

Sam Altman讲话:

随着日益强大的人工智能系统的出现,全球合作的賭(du)注从未如此之高(gao)。

如果(guo)我们不小(xiao)心,一个旨(zhi)在改善(shan)公共衛(wei)生(sheng)結(jie)果的錯(cuo)位(wei)的人工智能系统,可能会提(ti)供(gong)没有根據(ju)的建(jian)議(yi),从而(er)擾(rao)亂(luan)整(zheng)个醫(yi)療(liao)保健(jian)系统。同樣(yang),为优化(hua)農(nong)業(ye)生產(chan)而設(she)計(ji)的人工智能系统可能会無(wu)意(yi)中耗(hao)盡(jin)自(zi)然資(zi)源或(huo)破(po)壞(huai)生態(tai)系统,因为缺(que)乏(fa)对影响糧(liang)食(shi)生产的长期(qi)可持續(xu)性的考(kao)慮(lv),这是一種(zhong)环境(jing)平(ping)衡(heng)。

我希(xi)望(wang)我们都(dou)能同意,推进AGI安全是我们需要共同努(nu)力(li),尋(xun)找共性的最重要领域之一。

我发言(yan)的其余(yu)部(bu)分将集中在我们可以从哪(na)裏(li)开始:1.第(di)一个方面是AGI治(zhi)理,AGI从根本上成为了改变我们文明的强大力量(liang),强调了有意義(yi)的国際(ji)合作和协调的必要性。每(mei)个人都会从合作治理方法(fa)中受益。如果我们安全、負(fu)責(ze)任地(di)駕(jia)馭(yu)这条道路,AgI系统可以为全球经濟(ji)创造(zao)无与倫(lun)比的经济繁(fan)榮(rong),解决氣(qi)候变化和全球健康(kang)安全等(deng)共同挑(tiao)戰(zhan),并提高社(she)会福(fu)祉(zhi)。

我也深(shen)深地相信(xin)在未来。我们需要在AGI安全方面进行投(tou)资,才(cai)能到達(da)所(suo)想(xiang)要达到的地方,并在那(na)里享(xiang)受它(ta)。

要做到这样我们需要認(ren)真(zhen)协调。这是一項(xiang)具有全球影响力的全球技术。不计后果的开发和部署(shu)所造成的事故(gu)成本将影响到我们所有人。

国际合作中,我认为有两个关鍵(jian)领域是最重要的。

首先(xian)我们需要建立国际规範(fan)和标準(zhun),并注意過(guo)程中注重包(bao)容性。在任何(he)国家使(shi)用 AGI 系统,都應(ying)平等而一致地遵(zun)循(xun)这样的国际标准和规范。在这些安全護(hu)欄(lan)内,我们相信人们有足夠(gou)的機(ji)会做出自己(ji)的選(xuan)擇(ze)。

第二(er),我们需要国际合作,以可核查(zha)的方式建立对安全开发日益强大的 AI 系统的国际间信任。我并不妄(wang)想这是一件(jian)容易的事,需要投入(ru)大量和持续的关注。

《道德经》告(gao)訴(su)我们:千(qian)里之行,始于足下。我们认为,在这方面最具建设性的第一步(bu)是与国际科学和技术界(jie)合作。

需要强调的是,我们应該(gai)在推動(dong)技术进步这一方面增(zeng)加透(tou)明度和知識(shi)共享的机制。在AGI安全方面,发现新出现的安全问题的研究人員(yuan)们应该为了更(geng)大的利益分享他(ta)们的見(jian)解。

我们需要认真思(si)考如何在鼓(gu)勵(li)这种规范的同时,也尊(zun)重和保护知识产權(quan)。如果我们这样做,那麽(me),它将为我们深化合作打(da)开新的大門(men)。

更廣(guang)泛(fan)地来讲,我们应该投资于促进和引導(dao)对AI对齐和安全的研究。

在Open AI,我们今(jin)天(tian)的研究主要集中在技术问题上,讓(rang)AI在我们目前的系统中充(chong)当一个有幫(bang)助(zhu)且(qie)更安全的角(jiao)色(se)。这可能也意味(wei)着,我们訓(xun)練(lian)ChatGPT的方式,使其不做出暴(bao)力威(wei)脅(xie)或协助用戶(hu)进行有害(hai)活(huo)动的举措(cuo)。

但随着我们日益接近(jin) AGI 的时代(dai),没有对齐的 AI 系统的潛(qian)在影响力和影响规模将成倍(bei)增长。现在積(ji)極(ji)主动地解决这些挑战,能将未来出现災(zai)難(nan)性结果的风险降(jiang)到最低(di)。

对于目前的系统,我们主要利用人类反(fan)饋(kui)进行强化学習(xi)来训练我们的模型,使其成为一个有帮助的安全助手(shou)。这只(zhi)是各种训练后调整技术中的一个例(li)子。而且我们也在努力研究新的技术,其中需要很多艱(jian)苦(ku)的工程工作。

从 GPT4 完成預(yu)培(pei)训到我们部署它,我们專(zhuan)门花了 8 个月的时间来进行对齐方面的工作。總(zong)的来說(shuo),我们认为我们在这方面做得(de)很好(hao)。GPT4 比我们以前的任何模型都更加与人类对齐。

然而,对于更先进的系统,对齐仍然是一个未解决的问题,我们认为这需要新的技术方法,同时增强治理和監(jian)督(du)。

对于未来的AGI系统,它提出了10萬(wan)行二进制代碼(ma)。人类监督者不太可能发现这样的模型是否(fou)在做一些邪(xie)惡(e)的事情(qing)。所以我们正(zheng)在投资一些新的、互(hu)補(bu)的研究方向(xiang),希望能够实现突(tu)破。

一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督发现其他模型的輸(shu)出中的缺陷(xian)。

第二个是解释能力。我们想尝试更好地了解这些模型内部发生了什(shen)么。 我们最近发表了一篇(pian)論(lun)文,使用 GPT-4 来解释 GPT-2 中的神经元(yuan)。在另(ling)一篇论文中,我们使用 Model Internals 来檢(jian)測(ce)一个模型何时在说謊(huang)。我们还有很长的路要走(zou)。我们相信,先进的机器(qi)学习技术可以进一步提高我们解释的能力。

最終(zhong),我们的目标是训练 AI 系统来帮助进行对齐研究。这种方法的好處(chu)在于,它可以随着 AI 的发展速度而扩展。

獲(huo)得 AGI 带来的非(fei)凡(fan)好处,同时降低风险,是我们这个时代的开创性挑战之一。我们看到中国、美国以及世(shi)界各地的研究人员有很大的潜力来共同实现同一个目标,并致力于努力解决 AGI 对齐带来的技术挑战。

如果我们这样做,我相信我们将能够利用 AGI 来解决世界上最重要的问题,并极大地改善人类的生活質(zhi)量。非常(chang)感(gan)謝(xie)。

以下为对话实錄(lu):

未来十年我们会有非常强大的AI系统

智源研究院理事长张宏江提问:我们距(ju)離(li)通(tong)用人工智能(AGI)还有多遠(yuan)?风险是不是很緊(jin)迫(po),还是我们离它还很遙(yao)远?

Sam Altman:这很难評(ping)估(gu)具体时间。很可能未来十年我们会有非常强大的AI系统,新技术从根本上改变世界的速度比我们想象(xiang)的快。在那样的世界里,我认为把(ba)这件事(AI安全规則(ze))做好是重要且紧迫的,这就(jiu)是为什么我呼(hu)籲(xu)国际社会共同努力的原因。

从某种意义上说,我们现在看到的新技术的加速和系统的影响是前所未有的。所以我认为要为即将发生的事情做好准備(bei),并了解有关安全的问题。考虑到AI规模龐(pang)大,这其中的利害关系相当重要。

中国、美国和其他国家以及歐(ou)洲这三(san)个主要集团是人工智能创新背(bei)后的驅(qu)动力,在妳(ni)看来,在AGI安全这个领域中,不同国家分別(bie)又(you)有什么优势来解决这一问题,特(te)别是解决人工智能安全问题。如何将这些优势结合到一起(qi)?

全球合作为AI提出安全标准和框(kuang)架(jia)

张宏江:您(nin)剛(gang)才在前期的介(jie)紹(shao)中也提到了幾(ji)次,正在进行全球合作。我们知道,在过去(qu)世界面臨(lin)着相当多的危(wei)机。不知何故,对他们中的許(xu)多人来说,我们设法建立了共识,建立全球合作。你也在进行一次全球巡(xun)演,你正在努力推动怎(zen)样的全球合作?

Sam Altman:是的,我对到目前为止(zhi)大家的反应和回(hui)答都非常滿(man)意。我认为人们非常认真地对待(dai)AGI的风险和机遇(yu)。

我认为在过去的6个月里,对于安全的討(tao)论已(yi)经取(qu)得了相当大的进展。人们似(si)乎(hu)真的致力于找出一种结構(gou),让我们能够享受这些好处,同时在全球范圍(wei)内共同努力降低风险。我认为我们非常適(shi)合做这件事。全球合作总是困(kun)难的,但我认为这是一种将世界团结在一起的机会和威胁。我们可以为这些系统提出一个框架和安全标准,这将非常有帮助。

人工智能的对齐问题如何解决

张宏江:你提到先进人工智能的对齐是一个尚(shang)未解决的问题。我还注意到OpenAI在过去的几年里付(fu)出了很多努力。你提到GPT-4是迄(qi)今为止在对齐领域最好的例子。你认为我们可以仅仅通过微调(API)来解决AGI的安全问题嗎(ma)?或者比这个问题的解决方式要困难得多?

Sam Altman:我认为对齐这个詞(ci)有不同的理解方式。我认为我们需要解决的是整个人工智能系统中的挑战,傳(chuan)统意义上的对齐——让模型的行为符(fu)合用户的意圖(tu),当然是其中的一部分。

但还会有其他问题,比如我们如何验證(zheng)系统正在做什么,我们希望它们做什么,以及我们如何调整系统的价值。最重要的是要看到AGI安全的整体情況(kuang)。

如果没有技术解决方案(an),其他一切都很难。我认为集中精(jing)力確(que)保我们解决安全方面的技术问题是非常重要的。正如我所提到的,弄(nong)清(qing)楚(chu)我们的价值观是什么,这不是一个技术问题。尽管(guan)它需要技术投入,但这是一个值得全社会深入讨论的问题。我们必须设计公平、具有代表性和包容性的系统。

张宏江:針(zhen)对对齐,我们那看到GPT-4所做的,仍然是从技术的角度出发的解决方案。但除(chu)了技术之外(wai),还有许多其他因素(su),且往(wang)往是系统性的。人工智能安全在这里可能也不例外。除了技术方面,还有哪些因素和问题?你认为对人工智能安全至(zhi)关重要吗?我们应该如何应对这些挑战?尤(you)其是我们大多數(shu)人都是科学家。我们应该做什么。

Sam Altman:这无疑(yi)是一个非常復(fu)雜(za)的问题。但如果没有技术解决方案,其他一切都很难解决。我认为集中精力确保我们解决安全方面的技术问题是非常重要的。正如我所提到的,弄清楚我们的价值观是什么,这不是一个技术问题。它需要技术投入,但这同时也是一个值得全社会深入讨论的问题。我们必须设计公平、具有代表性和包容性的系统。

而且,正如你所指(zhi)出的,我们需要考虑的不仅仅是人工智能模型拉(la)动本身的安全性,而是整个系统。

因此,可以构建在系统上運(yun)行的安全分类器和检测器很重要,它们可以监控AI是否符合使用策(ce)略(lve)。我认为很难提前预测任何技术会出现的所有问题。因此,从现实世界的使用中学习,并反复部署,看看当你真正创造现实并改进它时会发生什么。

让人类和社会有时间学习和更新,并思考这些模型将如何以好的和坏的方式与他们的生活互动,这也很重要。

需要各国共同合作

张宏江:早(zao)些时候,你提到了全球合作。你一直(zhi)在环遊(you)世界,中国、美国和以及欧洲等各国都是人工智能创新背后的驱动力,在你看来,在AGI中,不同国家分别有哪些优势来解决AGI问题,特别是解决人安全问题。如何将这些优势结合到一起?

Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。

此外,正如所提到的,这不是一个純(chun)粹(cui)的技术问题,使人工智能安全和有益的。涉(she)及在非常不同的背景(jing)下了解不同国家的用户偏(pian)好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀(xiu)的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的頭(tou)脑。所以我真的希望中国的人工智能研究人员在这里做出巨(ju)大的贡献。

需要非常不同的架构使得AGI更安全

张宏江:关于GPT-4和AI安全的后续问题。我们是否有可能需要更改AGI模型的整个基(ji)礎(chu)架构或整个体系结构。为了让它更安全,更容易被(bei)检查.

Sam Altman:无论是从功(gong)能角度还是从安全角度来看,我们确实需要一些非常不同的架构,这是完全可能的。

我认为我们将能够取得一些进展,在解释我们目前各种模型的能力方面取得良(liang)好进展,并让他们更好地向我们解释他们在做什么以及为什么。但是,是的,如果在Transformer之后有另一个巨大的飛(fei)躍(yue),我不会感到驚(jing)訝(ya)。自从最初(chu)的Transformer以来,我们已经改变了很多架构。

OpenAI开源的可能性

张宏江:我明白今天的论壇(tan)是关注AI安全的,因为人们对OpenAI很好奇(qi),所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计劃(hua)重新开源它的模型,就像(xiang)在3.0版(ban)本之前那样?我也认为开源有利于AI安全。

Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移(yi),我认为你应该期待我们将来会繼(ji)续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。

张宏江:BAAI将所有的努力都变成开源,包括(kuo)模型和算(suan)法本身。我们相信,我们有这种需要,分享和給(gei)予(yu),你一个他们在控制感知。請(qing)问你有类似的观念(nian)吗,或者在你的同齡(ling)人或OpenAI的同事中讨论过这些话题。

Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。

最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了額(e)外的安全控制。你可以阻(zu)止某些用途(tu)。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收(shou)回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路徑(jing),尽管有时候它是正确的。我认为我们只需要仔(zai)細(xi)地平衡一下。

我们未来会有更多开源大模型,但没有具体模型和时间表。

AGI的下一步方向?会很快看到GPT-5吗?

张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大語(yu)言模型方面,我们会不会很快看到GPT-5?下一个前沿(yan)是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探(tan)索(suo)的领域?

Sam Altman:我也很好奇下一步会发生什么,我最喜(xi)歡(huan)做这项工作的原因之一就是在研究的前沿,有很多令(ling)人興(xing)奮(fen)和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣(qu),但也遇到了一些困难。我希望有一天我们能够回到这个领域。

张宏江:聽(ting)起来很棒(bang)。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?

Sam Altman:我们会继续推进这个方向。

张宏江:那你认为这种方法可以应用到生物(wu)神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借(jie)鑒(jian)这个方法,在他们的领域里研究和探索人类神经元是如何工作的。

Sam Altman:在人工神经元上观察(cha)发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效(xiao)的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定(ding)你怎么把这个方法应用到人类大脑上。

控制模型数量可行吗

张宏江:好的,谢谢你。既(ji)然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武(wu)器扩散(san)。我们有这样的条約(yue),我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?

Sam Altman:我认为对于世界上有少(shao)数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的東(dong)西(xi)是安全和对齐的?

张宏江:昨(zuo)天在这个会议上,MIT未来生命研究所的Max教(jiao)授(shou)提到了一种可能的方法,就是类似于我们控制藥(yao)物开发的方式。科学家或者公司开发出新药,你不能直接上市(shi)。你必须经过这样的测试过程。这是不是我们可以借鉴的?

Sam Altman:我絕(jue)对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏(zou)效的方法。

张宏江:非常感谢你,Sam。谢谢你抽(chou)时间来参加这次会议,雖(sui)然是线上的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。返(fan)回搜(sou)狐(hu),查看更多

责任編(bian)輯(ji):

发布于:广东广州花都区