刘德华:华语音乐巨星传奇

刘德华:华语音乐巨星传奇

刘德华,这个名字对于中国乐坛来说绝对不陌生。他是华语音乐巨星,也是演艺圈的传奇人物。自1984年以来,他的音乐作品一直深受广大观众的喜爱。此外,他还活跃于电影界和慈善界。刘德华不仅凭借着他的音乐天赋,还以他的坚韧不拔和大公无私的品质深受人们喜爱。在本文中,将从四个方面对刘德华:华语音乐巨星传奇进行详细的阐述。

刘德华的音乐才华

刘德华是华语音乐圈的重量级人物。他的音乐作品数量众多,包括了许多传奇之作,如《忘情水》、《冰雨》、《月亮代表我的心》等等。他的音乐才华在业内享有盛誉,他不仅能够演唱动感的流行歌曲,还能够演唱抒情的歌曲。同时,他在音乐创作方面也有出色的表现。他有许多的歌曲是自己亲自创作并演唱的,其中包括了《爱你一万年》、《恶作剧》、《同舟共济》等等。他的音乐天赋给人们留下了深刻的印象,也使他成为了华语音乐史上的传奇人物之一。

刘德华的演艺事业

除了音乐方面,刘德华在演艺圈也有出色的表现。他是一位多才多艺的艺人,涉足电影、电视剧、话剧等多个领域。他主演的电影《无间道》、《英雄本色》等等都成为了经典之作。他不仅有出色的演技,还对每个角色都有深入的思考和研究。同时,他也关注社会问题,在电影中深入探讨了许多社会问题,例如《黄飞鸿》中的民族精神、《人在囧途》中反映社会现实、《中国机长》中反映出民航行业的现状等等。刘德华不仅是一位艺术家,更是一位有思想深度的艺人。

刘德华的慈善事业

刘德华始终把自己的名气和影响力用于公益事业的推广。他一直秉持着行善积德的信仰,主要集中在教育慈善、灾难救助、贫困地区扶贫、重病救助等方面,并一直坚持不懈地开展慈善事业。他也是志愿服务的积极倡导者,经常参与各类公益活动。从2000年开始,他一直都是香港真善美运动的代言人,为该运动的宗旨——真善美,以真情相助,以善行回馈社会,以美德铸就人生付出了巨大的心血。刘德华的慈善事业不仅为社会做出了贡献,也树立了公益慈善的榜样。

刘德华的人格魅力

刘德华不仅是一位艺人,更是一位有人格魅力的人物。他在演艺圈中一直以坚韧不拔、有担当、有责任心的品质为人所称道。他的坚韧和努力为他的演艺事业和慈善事业的成功奠定了坚实的基础。他的思想深度和宏大胸怀也使他在艺术和思想上经久不衰。他的大公无私和追求真善美的品质更是让人们对他的敬佩倍增。刘德华的人格魅力贯穿于他的音乐、电影和慈善事业中,让人们对他的爱和尊敬由衷而发。

总结

刘德华:华语音乐巨星传奇,他的音乐、电影和慈善事业无不体现了他的才华和品质。他的音乐才华让他成为了华语音乐史上的传奇人物,他的演艺事业让他成为了多才多艺的艺人,他的慈善事业让他成为了公益慈善的榜样,他的人格魅力让他成为了尊敬和爱戴的艺人。在刘德华的身上,我们不仅看到了一个成功的艺人,更看到了一个有思想、有情怀、有担当、有责任心的大公无私的人物。刘德华的成功不仅仅来自于他的才华,更来自于他的品质和精神。刘德华不仅是华语音乐圈的传奇人物,更是一位值得我们尊敬和学习的榜样。

刘德华:华语音乐巨星传奇随机日志

持目前国内所有偏移地图纠偏输出(如百度、高德、搜狗地图等),可与无偏移数据完美叠加。

1、腾讯会议,真的很会!为您打造高效能的云会议解决方案,丰富的会议协作能力,坚实的会议安全保障,助力构建云上连接,满足大中小会议全场景需求,诚邀您来体验。【新增表情回应功能】会中使用表情来回应,化身捧场达人,互动轻松多样又有趣;【开麦音效提醒】支持设置开麦提示音效,麦克风状态感知更显著;【视频镜像多方视角预览】在设置视频镜像时,可预览自己和他人视角的视频表现;

2、新增:小组件(Widget),展示当前位置或者所选位置的信息情况

3、简洁:现在浏览器的UI都互相借鉴(或者说抄袭),我也不知道Chrome的UI是否原创,不过简洁的界面的确是一大优势,特别是最新版本,甚至隐藏了地址栏。

4、强力拦截广告、强力拦截广告、强力拦截广告,重要的事情说三遍!不仅是拦截广告,小讯还利用大数据,拦截标题党、拦截低俗信息、拦截诈骗信息。净化网络,还网络一片净土,也是小讯的初心和理想。

5、斩获系列大奖:金米奖,至美奖,极光奖,星应用!

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>清(qing)北(bei)微(wei)軟(ruan)深(shen)挖(wa)GPT,把(ba)上(shang)下(xia)文(wen)學(xue)習(xi)整(zheng)明(ming)白(bai)了(le)!和(he)微調(tiao)基(ji)本(ben)壹(yi)致(zhi),只(zhi)是(shi)參(can)數(shu)沒(mei)變(bian)而(er)已(yi)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】ICL的(de)工(gong)作(zuo)原(yuan)理(li)整明白了!

大(da)型(xing)預(yu)訓(xun)練(lian)語(yu)言(yan)模(mo)型其(qi)中(zhong)一個(ge)重(zhong)要(yao)的特(te)點(dian)就(jiu)是上下文学习(In-Context Learning,ICL)能(neng)力(li),即(ji)通(tong)過(guo)一些(xie)示(shi)範(fan)性(xing)的輸(shu)入(ru)-標(biao)簽(qian)對(dui),就可(ke)以(yi)在(zai)不(bu)更(geng)新参数的情(qing)況(kuang)下对新输入的标签進(jin)行(xing)预測(ce)。

性能雖(sui)然(ran)上去(qu)了,但(dan)大模型的ICL能力到(dao)底(di)從(cong)何(he)而來(lai)仍(reng)然是一个開(kai)放(fang)的問(wen)題(ti)。

為(wei)了更好(hao)地(di)理解(jie)ICL的工作原理,清華(hua)大学、北京(jing)大学和微软的研(yan)究(jiu)人(ren)員(yuan)共(gong)同(tong)發(fa)表(biao)了一篇(pian)論(lun)文,將(jiang)语言模型解釋(shi)为元優(you)化(hua)器(qi)(meta-optimizer),並(bing)将ICL理解为一種(zhong)隱(yin)性的(implicit)微调。

论文鏈(lian)接(jie):https://arxiv.org/abs/2212.10559

从理论上講(jiang),這(zhe)篇文章(zhang)弄(nong)清楚(chu)了Transformer註(zhu)意(yi)力中存(cun)在一个基於(yu)梯(ti)度(du)下降(jiang)优化的对偶(ou)形(xing)式(shi)(dual form),并在此(ci)基礎(chu)上,对ICL的理解如(ru)下。GPT首(shou)先(xian)根(gen)據(ju)示范實(shi)例(li)產(chan)生(sheng)元梯度,然後(hou)将这些元梯度應(ying)用(yong)于原始(shi)的GPT,建(jian)立(li)ICL模型。

在实驗(yan)中,研究人员綜(zong)合(he)比(bi)較(jiao)了ICL和基于真(zhen)实任(ren)務(wu)的顯(xian)式微调的行为,以提(ti)供(gong)支(zhi)持(chi)該(gai)理解的經(jing)验證(zheng)据。

結(jie)果(guo)证明,ICL在预测層(ceng)面(mian)、表征(zheng)层面和注意行为层面的表現(xian)與(yu)显式微调類(lei)似(si)。

此外(wai),受(shou)到元优化理解的啟(qi)发,通过与基于動(dong)量(liang)的梯度下降算(suan)法(fa)的类比,文中還(hai)設(she)計(ji)了一个基于动量的注意力,比普(pu)通的注意力有(you)更好的表现,从另(ling)一个方(fang)面再(zai)次(ci)支持了该理解的正(zheng)確(que)性,也(ye)展(zhan)现了利(li)用该理解对模型做(zuo)进一步(bu)设计的潛(qian)力。

ICL的原理

研究人员首先对Transformer中的線(xian)性注意力機(ji)制(zhi)进行了定(ding)性分(fen)析(xi),以找(zhao)出(chu)它(ta)与基于梯度下降的优化之(zhi)間(jian)的对偶形式。然后将ICL与显式微调进行比较,并在这兩(liang)种优化形式之间建立聯(lian)系(xi)。

Transformer注意力就是元优化

设X是整个query的输入表征,X'是示例的表征,q是查(zha)詢(xun)向(xiang)量,則(ze)在ICL设置(zhi)下,模型中一个head的注意力结果如下:

可以看(kan)到,去除(chu)縮(suo)放因(yin)子(zi)根號(hao)d和softmax后,标準(zhun)的注意力机制可以近(jin)似为:

将Wzsl设为Zero-Shot Learning(ZSL)的初(chu)始参数后,Transformer注意力可以轉(zhuan)为下面的对偶形式:

可以看到,ICL可以被(bei)解释为一个元优化(meta-optimization)的过程(cheng):

1. 将基于Transformer的预训练语言模型作为一个元优化器;

2. 通过正向计算,根据示范樣(yang)例计算元梯度;

3. 通过注意力机制,将元梯度应用于原始语言模型上,建立一个ICL模型。

ICL和微调对比

为了比较ICL的元优化和显式优化,研究人员设计了一个具(ju)體(ti)的微调设置作为比较的基线:考(kao)慮(lv)到ICL只直(zhi)接作用于注意力的key和value,所(suo)以微调也只更新key和value投(tou)影(ying)的参数。

同样在非(fei)嚴(yan)謹(jin)形式下的线性注意力中,微调后的head注意力结果可以被表述(shu)为:

为了与ICL进行更公(gong)平(ping)的比较,实验中进一步将微调设置限(xian)制如下:

1. 将训练例子指(zhi)定为ICL的示范样例;

2. 只对每(mei)个例子进行一步训练,其順(shun)序(xu)与ICL的示范顺序相(xiang)同;

3. 用ICL所用的模板(ban)对每个训练样例进行格(ge)式化,并使(shi)用因果语言建模目(mu)标进行微调。

比较后可以发现,ICL与微调有許(xu)多(duo)共同的屬(shu)性,主(zhu)要包(bao)括(kuo)四(si)个方面。

都(dou)是梯度下降

可以发现ICL和微调都对Wzsl进行了更新,即梯度下降,唯(wei)一的區(qu)別(bie)是,ICL通过正向计算产生元梯度,而finetuning通过反(fan)向傳(chuan)播(bo)獲(huo)得(de)真正的梯度。

相同的训练信(xin)息(xi)

ICL的元梯度是根据示范样例获得的,微调的梯度也是从相同的训练样本中得到的,也就是說(shuo),ICL和微调共享(xiang)相同的训练信息来源(yuan)。

训练样例的因果顺序相同

ICL和微调共享训练样例的因果顺序,ICL用的是decoder-only Transformers,因此示例中的后續(xu)token不會(hui)影響(xiang)到前(qian)面的token;而对于微调,由(you)于训练示例的顺序相同,并且(qie)只训练一个epoch,所以也可以保(bao)证后面的样本对前面的样本没有影响。

都作用于注意力

与zero-shot学习相比,ICL和微调的直接影响都僅(jin)限于注意力中key和value的计算。对于ICL来说,模型参数是不变的,它将示例信息编碼(ma)为額(e)外的key和value以改(gai)变注意力行为;对于微调中引(yin)入的限制,训练信息也只能作用到注意力key和value的投影矩(ju)陣(zhen)中。

基于ICL和微调之间的这些共同特性,研究人员認(ren)为将ICL理解为一种隐性微调是合理的。

实验部(bu)分

任务和数据集(ji)

研究人员選(xuan)擇(ze)了橫(heng)跨(kua)三(san)个分类任务的六(liu)个数据集来对比ICL和微调,包括SST2、SST-5、MR和Subj四个用于情感(gan)分类的数据集;AGNews是一个話(hua)题分类数据集;CB用于自(zi)然语言推(tui)理。

实验设置

模型部分使用了两个类似于GPT的预训练语言模型,由fairseq发布(bu),其参数量分别为1.3B和2.7B.

对于每个任务,使用相同的模板来对ZSL、ICL和微调的样本进行格式化。

结果

准确率(lv)

与ZSL相比,ICL和微调都取(qu)得了相當(dang)大的改进,这意味(wei)著(zhe)它們(men)的优化,对这些下遊(you)任务都有幫(bang)助(zhu)。此外,ICL在少(shao)数情况下比微调更好。

Rec2FTP(Recall to Finetuning Predictions)

GPT模型在六个数据集上的得分结果显示,平均(jun)而言,ICL可以正确预测 87.64%的例子,而微调可以糾(jiu)正ZSL。在预测层面,ICL可以覆(fu)蓋(gai)大部分正确的的行为进行微调。

SimAOU(Similarity of Attention Output Updates)

从结果中可以发现,ICL更新与微调更新的相似度遠(yuan)高(gao)于隨(sui)机更新,也意味着在表示层面上,ICL傾(qing)向于以与微调变化相同的方向改变注意力结果。

SimAM(Similarity of Attention Map)

作为SimAM的基线指标,ZSL SimAM计算了ICL注意力權(quan)重和ZSL注意力权重之间的相似度。通过比较这两个指标,可以觀(guan)察(cha)到,与ZSL相比,ICL更倾向于产生与微调相似的注意力权重。

同样,在注意力行为层面,实验结果证明了ICL的行为与微调相似。

参考資(zi)料(liao):

https://arxiv.org/abs/2212.10559v2返(fan)回(hui)搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:江苏南京玄武区