让你爱不释口的高山黄桃广告词 –

概述:高山黄桃可以说是夏季水果中的翘楚,其甜美的口感和丰富的营养成分吸引了众多消费者的青睐。作为一种特色水果,高山黄桃不仅是中国的骄傲,更是世界范围内广受欢迎的水果。本篇博客将围绕高山黄桃展开,介绍其丰富的营养价值以及如何选择和食用高山黄桃,为消费者提供更多关于高山黄桃的信息。

高山黄桃的营养价值

高山黄桃富含维生素C、维生素A、钾、镁和纤维素等多种营养成分。其中,维生素C的含量比橙子高出4倍,能够增强人体免疫力;维生素A有益于保护人体视力和呼吸系统,预防心脏病和癌症;钾能够维持心脏、肌肉和神经系统的正常功能,同时还能降低血压;镁对人体新陈代谢和骨骼生长起着重要的作用;纤维素则能够促进肠胃蠕动,预防便秘。因此,高山黄桃是一种非常健康的水果,对身体有很好的保健作用。

如何选择和食用高山黄桃

首先要选择新鲜的高山黄桃,颜色应为鲜黄色,皮表面应光滑无斑点,并有一股清香的味道。如果外观上有明显的破损或者已经开始腐烂,就不要购买。其次,在处理高山黄桃的时候,最好使用刀子而不是手去削皮,以免皮上的细菌感染到果肉。高山黄桃可以生吃,也可以用来制作水果沙拉和果汁。不过需要注意的一点是:高山黄桃的果核不能食用,否则会损伤消化道。此外,高山黄桃最好不要和含有钙质的食物一起食用,因为其中的草酸会与钙形成草酸钙,容易导致胃肠道不适。

结论

高山黄桃作为一种营养丰富的水果,深受广大消费者的喜爱。它不仅含有多种营养成分,而且口感极佳,适合生吃或者用来制作水果沙拉、果汁等。在选择和食用高山黄桃的过程中需要注意一些事项,以免对身体造成不利影响。最后,谨以此文向喜欢高山黄桃的朋友们致以诚挚的问候,希望大家都能享受到高山黄桃带来的美妙口感和健康价值。

让你爱不释口的高山黄桃广告词 – 随机日志

PR支持监控服务器硬件系统运行情况,检测硬件设备对软件测试结果的影响,以便更好地检测软件性能。

1、打开9S代理并去往“程序(Program)”页面。

2、答案:很简单,查询完毕后(一定要查询完毕后)点击行头(也就是表格的百度指数那几个字)软件就会自动排序啦,点击一次是倒序,

3、附近趣闻:基于地理位置展示附近美图,让你发现身边的美好~

4、当然也有女频好书:《重生七零小辣媳》《渣前夫总想抢我儿砸》《重生之不负韶华》《错枕眠》

5、删除繁琐功能,保留简单todo逻辑适配android

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>OpenAI發(fa)布(bu)炸(zha)裂(lie)研(yan)究(jiu):讓(rang)AI解(jie)釋(shi)AI黑(hei)箱(xiang),人(ren)類(lei)無(wu)法(fa)理(li)解,語(yu)言(yan)无法描(miao)述(shu)

來(lai)源(yuan):Founder Park

就(jiu)算(suan)在(zai)新(xin)產(chan)品(pin)滿(man)天(tian)飛(fei),商(shang)業(ye)文(wen)明(ming)正(zheng)在被(bei) AI 重(zhong)建(jian)的(de)當(dang)下(xia),我(wo)們(men)仍(reng)然(ran)不(bu)知(zhi)道(dao),這(zhe)些(xie)令(ling)人驚(jing)嘆(tan)的技(ji)術(shu)是(shi)如(ru)何(he)運(yun)作(zuo)的。

AI,语言模(mo)型(xing),它(ta)是個(ge)黑箱(black box),人类无法理解,我们甚(shen)至(zhi)不知道怎(zen)樣(yang)研究才(cai)能(neng)夠(gou)理解。

但(dan)如果(guo),研究这个黑箱的不是人类,而(er)是 AI 自(zi)己(ji)呢(ne)?

这是壹(yi)个令人好(hao)奇(qi)但又(you)非(fei)常(chang)危(wei)險(xian)的想(xiang)法。因(yin)為(wei)妳(ni)甚至不知道,这一研究方(fang)法产生(sheng)的結(jie)果,是否(fou)會(hui)徹(che)底(di)顛(dian)覆(fu)多(duo)年(nian)来人类對(dui)人腦(nao)和(he) AI 的理解。

但是有(you)人这样做(zuo)了(le)。幾(ji)小(xiao)時(shi)前(qian),OpenAI 发布了最(zui)新的研究成(cheng)果,他(ta)们用(yong) GPT-4 解释 GPT-2 的行(xing)为,獲(huo)得(de)了初(chu)步(bu)的成果。

毫(hao)不誇(kua)張(zhang)地(di)說(shuo),人们震(zhen)惊極(ji)了:「求(qiu)求你们让它離(li)覺(jiao)醒(xing)遠(yuan)點(dian)吧(ba)!」

「AI 理解 AI,然後(hou)很(hen)快(kuai),AI 訓(xun)練(lian) AI,然后再(zai)過(guo)几年,AI 創(chuang)造(zao)新的 AI。」

但客(ke)觀(guan)来说,學(xue)术界(jie)为之(zhi)感(gan)到(dao)興(xing)奮(fen):「瘋(feng)了,OpenAI 剛(gang)刚搞(gao)定(ding)了可(ke)解释性(xing)問(wen)題(ti)。」

人與(yu)機(ji)器(qi)之間(jian)是 GPT-4

OpenAI 刚刚在官(guan)網(wang)发布博(bo)客文章(zhang)《语言模型可以(yi)解释语言模型中(zhong)的神(shen)經(jing)元(yuan)》(Language models can explain neurons in language models)。

簡(jian)單(dan)来说,他们開(kai)发了一个工(gong)具(ju),調(tiao)用 GPT-4 来計(ji)算出(chu)其(qi)他架(jia)構(gou)更(geng)简单的语言模型上(shang)神经元的行为,这次(ci)針(zhen)对的是 GPT-2,发布於(yu) 4 年前的开源大(da)模型。

大模型(LLM)和人脑一样,由(you)「神经元」(neurons)組(zu)成,这些神经元会观察(cha)文本(ben)中的特(te)定規(gui)律(lv),進(jin)而影(ying)響(xiang)到模型本身(shen)生产的文本。

舉(ju)例(li)来说,如果有一个针对「漫(man)威(wei)超(chao)級(ji)英(ying)雄(xiong)」的神经元,当用戶(hu)向(xiang)模型提(ti)问「哪(na)个超级英雄的能力(li)最強(qiang)」时,这个神经元就会提高(gao)模型在回(hui)答(da)中说出漫威英雄的概(gai)率(lv)。

OpenAI 开发的工具利(li)用这種(zhong)规則(ze)制(zhi)定了一套(tao)評(ping)估(gu)流(liu)程(cheng)。

开始(shi)之前,先(xian)让 GPT-2 运行文本序(xu)列(lie),等(deng)待(dai)某(mou)个特定神经元被頻(pin)繁(fan)「激(ji)活(huo)」的情(qing)況(kuang)。

然后有三(san)个评估步驟(zhou):

第(di)一步,让 GPT-4 针对这段(duan)文本,生成解释。比(bi)如在下面(mian)的案(an)例中,神经元主(zhu)要(yao)针对漫威內(nei)容(rong)。GPT-4 接(jie)收(shou)到文本和激活情况后,判(pan)斷(duan)这与電(dian)影、角(jiao)色(se)和娛(yu)樂(le)有關(guan)。

第二(er)步,用 GPT-4 模擬(ni)这个 GPT-2 的神经元接下来会做什(shen)麽(me)。下圖(tu)就是 GPT-4 生成的模拟内容。

最后一步,对比评估打(da)分(fen)。对比 4 代(dai)模拟神经元和 2 代真(zhen)實(shi)神经元的结果,看(kan) GPT-4 猜(cai)的有多準(zhun)。

通(tong)过这样的方法,OpenAI 对每(mei)个神经元的行为作出了初步的自然语言解释,並(bing)对这种解释和实際(ji)行为的匹(pi)配(pei)程度(du)进行了评分。

最終(zhong)他们对 GPT-2 中 307200 个神经元全(quan)部(bu)进行了解释,这些解释匯(hui)編(bian)成數(shu)據(ju)集(ji),与工具代碼(ma)一起(qi)在 GitHub 上发布。

超越(yue)语言的机器,人类无法理解的机器

据 OpenAI 在博客文章中表(biao)示(shi),目(mu)前 GPT-4 生成的解释還(hai)不完(wan)美(mei),尤(you)其要解释比 GPT-2 更大的模型时,表現(xian)效(xiao)果很差(cha),「可能是因为后面的 layer 更難(nan)解释」。

对于 GPT-2 解释的评分大多也(ye)非常低(di),僅(jin)有 1000 个左(zuo)右(you)的解释获得了較(jiao)高的评分(0.8 以上)。

OpenAI 可拓(tuo)展(zhan)对齊(qi)團(tuan)隊(dui)的 Jeff Wu 表示,「大多数解释的得分很低,或(huo)者(zhe)无法解释实际神经元那(na)么多的行为。比如,許(xu)多神经元以一种难以判断的方式(shi)保(bao)持(chi)活躍(yue),它们在五(wu)六(liu)件(jian)事(shi)上保持激活,但卻(que)沒(mei)有可以辨(bian)別(bie)的模式。有时候(hou)存(cun)在明顯(xian)的模式,但 GPT-4 有无法找(zhao)到它。」

雖(sui)然现階(jie)段成績(ji)不好,但是 OpenAI 却比较有信(xin)心(xin),他们認(ren)为可以使(shi)用机器学習(xi)的方式提高 GPT-4 产出解释的能力。

比如通过反(fan)復(fu)产出解释,并根(gen)据激活情况修(xiu)改(gai)解释;或者使用更大的模型作出解释;以及(ji)调整(zheng)解释模型的结构等等。

OpenAI 还提到,这一方法目前还有很多局(ju)限(xian)性。

使用简短(duan)的自然语言进行解释,也许并不匹配神经元可能非常复雜(za)的行为,不能简潔(jie)地进行描述。神经元可能会具備(bei)多个不同(tong)概念(nian),也可能,会具备一个人类没有语言描述甚至无法理解的概念。 最终 OpenAI 希(xi)望(wang)能够自動(dong)化(hua)找到并解释能够实现复杂行为的整个神经回路(lu),而目前的方法只(zhi)解释了神经元的行为,并没有涉(she)及下遊(you)影响。 解释了神经元的行为,但没有解释产生这种行为的机制。这意(yi)味(wei)著(zhe)即(ji)使是拿(na)了高分的解释,也只能描述相(xiang)关性。 整个过程是计算密(mi)集型的。

在論(lun)文中,OpenAI 表示:「语言模型可能代表了人类无法用语言表達(da)的陌(mo)生概念。这可能是因为语言模型关心不同的事情,比如統(tong)计结构对下一个token預(yu)測(ce)任(ren)務(wu)有用,或者因为模型已(yi)经发现了人类尚(shang)未(wei)发现的自然的抽(chou)象(xiang),例如在不同領(ling)域(yu)的类似(si)概念家(jia)族(zu)。」

它把(ba) LLM 的这种屬(shu)性,稱(cheng)为 Alien Feature,在生物(wu)领域翻(fan)譯(yi)为「異(yi)类特征(zheng)」。

Founder Park 微(wei)信后臺(tai)回复「解释神经元论文」,获取(qu)论文鏈(lian)接和中英对照(zhao) PDF 链接(机翻)。

把对齐问题也交(jiao)給(gei) AI

「我们正試(shi)图开发预测『AI 系(xi)统会出现什么问题』的方法,」OpenAI 可解释性团队負(fu)責(ze)人 William Saunders 对媒(mei)體(ti)说,「我们希望能够真正做到,让这些模型的行为和生产的回答是可以被信任的。」

Sam Altman 也轉(zhuan)发博客文章称:GPT-4 对 GPT-2 做了一些可解释性工作。

可解释性(interpretability)是机器学习的研究子(zi)领域,指(zhi)的是对模型的行为有清(qing)晰(xi)的理解和对模型结果的理解能力。

简单来说,目的就是解释机器学习模型「如何做到」(how)。

2019 年开始,可解释性成为机器学习的重要领域,相关研究有助(zhu)于开发人員(yuan)对模型进行優(you)化和调整。针对当下 AI 模型大规模應(ying)用时,亟(ji)需(xu)解決(jue)的可信度(trust)、安(an)全性(safety)和决策(ce)參(can)考(kao)(decision making)等问题。

如果我们不知道 AI 是如何作出决策的,始终把它当做一个黑箱,那么就算 AI 在各(ge)种場(chang)景(jing)下表现得再完美,也无法解决部分人类的信任问题。

OpenAI 这次使用 GPT-4 来解决可解释性的问题,就是希望能够使用自动化的方式,让机器完成 AI 研究。

「这是我们对齐研究的第三支(zhi)柱(zhu)的一部分:我们希望自动化对齐研究。令人期(qi)待的是,这一方向能让它(对齐)与 AI 发展的步伐(fa)相匹配。」

在 2022 年夏(xia)天,OpenAI 曾(zeng)发布文章《我们做对齐研究的方法》(Our approach to alignment research)。

文中提到,宏(hong)观来看,OpenAI 的对齐研究將(jiang)由三大支柱支撐(cheng):

1、利用人工反饋(kui)训练 AI

2、训练 AI 系统協(xie)助人类评估

3、训练 AI 系统进行对齐研究

「语言模型非常適(shi)合(he)自动化对齐研究,因为它们通过閱(yue)讀(du)互(hu)聯(lian)网『预裝(zhuang)』了大量(liang)有关人类價(jia)值(zhi)观的知識(shi)和信息(xi)。开箱即用,它们不是獨(du)立(li)代理,因此(ci)不会在世(shi)界上追(zhui)求自己的目標(biao)。」

太(tai)快了,連(lian)认知都(dou)範(fan)式革(ge)命(ming)了

虽然 OpenAI 本意很好,但是这样的研究成果着实嚇(xia)壞(huai)了网友(you)。

OpenAI 的推(tui)文下梗(geng)图橫(heng)飞,有不少(shao)人在认真地建議(yi) OpenAI 搞慢(man)点。

「用我们不理解的東(dong)西(xi),解释另(ling)一个我们不理解的东西,这合理嗎(ma)?」

「護(hu)欄(lan)都被你撤(che)了」

「这太迷(mi)人了,但也让我感到极度不适。」

「自然创造了人类来理解自然。我们创造了 GPT-4 来理解自己。」

「我们要怎么判断解释者是好的?这就像(xiang)... 誰(shui)監(jian)督(du)着监督者?」(who watches the watchers)

还有人看到了更深(shen)的一層(ceng):

「大模型很快就能比人类更好地解释他们自己的思(si)維(wei)过程,我想知道我们未来要创造多少新的詞(ci)汇,来描述那些 AI 发现的概念(概念本身也不准確(que))?我们还没有一个合适的词描述它们。或者,我们是否会觉得这些概念有意義(yi)?它们又能教(jiao)会我们如何认识自己呢?」

另一网友回应道:「人类本身对自己行为的解释,大多是謊(huang)言、捏(nie)造、幻(huan)觉、錯(cuo)誤(wu)的記(ji)憶(yi)、事后推理,就像 AI 一样。」返(fan)回搜(sou)狐(hu),查(zha)看更多

责任编輯(ji):

发布于:青海海南同德县