看山东体育频道直播,手机随时随地精彩不断!

看山东体育频道直播,手机随时随地精彩不断!

现在,随着数字科技的飞速发展,越来越多的人通过手机观看电视节目。当然,体育比赛也不例外。山东体育频道一直以全面、专业的体育报道而闻名。现在,通过手机看山东体育频道直播已经成为很多人的选择,不仅方便而且让观众更加充分地了解比赛情况。

一、便捷的在线直播

现在的手机已经越来越智能,同时网络的速度也逐年提高。通过手机在线直播成为了现在观众观看体育比赛的主要方式之一。山东体育频道在直播方面做得非常好,不仅具备高清画质、稳定流程的条件,同时在体育赛事报道上也做得非常好,因此,很多观众选择通过手机在线直播看山东体育频道,上面提供了众多体育比赛的直播服务,无论是足球、篮球、排球还是其他运动项目都能看到最新的赛况,随时随地都能够享受精彩的比赛。

二、全面的赛事概述

当然,在观看体育比赛时,想要了解比赛的背景信息也是非常重要的事情。山东体育频道在这方面也非常的专业,提供了全面的赛事概述。通过手机观看山东体育频道直播时,可以看到比赛的背景、规则、球员等信息。此外,山东体育频道还提供了专家评论、赛事分析等信息,让观众更加深入地了解比赛情况,也让观众的观看体验更加丰富。

三、随时随地的重放服务

在大多数情况下,观众可能会错过一些重要的比赛时刻,因此山东体育频道提供了重播服务,观众可以在手机上随时随地重播比赛精彩瞬间。这个特性让观众不再担心错过比赛的经典瞬间,也让观众在空闲时能够更加方便地回顾比赛。

四、便于获取的体育新闻和信息

除了在山东体育频道观看直播外,观众还可以通过手机获取更多的体育新闻和信息。山东体育频道的官网和应用提供了众多的体育新闻报道和其他有用的信息。通过这些信息,观众可以更加全面地了解体育比赛的情况。

总结

通过手机观看山东体育频道直播,可以方便地获取全面和准确的比赛信息,也让观众随时随地都能够享受比赛的精彩。而且,山东体育频道还提供了重播服务和体育新闻信息,让观众更加深入地了解体育比赛的背景和情况,提高了观众的观看体验。

问答话题

问:如何观看山东体育频道的直播?答:观众可以通过山东体育频道官网和应用来观看直播。问:山东体育频道提供的体育新闻报道有哪些措施?答:山东体育频道提供了全面和准确的体育新闻报道,还提供了专家评论和分析。问:如何获取山东体育频道直播的背景信息?答:观众可以通过手机观看山东体育频道直播来获取比赛的背景、规则、球员等信息。

看山东体育频道直播,手机随时随地精彩不断!随机日志

v包括FiLMiCRemote的性能优化和错误修复。它解决了阻止zebraliveanalytic显示的问题。

1、激活“智能模式”,在所有后续下载中采用最佳设置,让视频和歌曲下载更轻松快捷。

2、今后,河南政务服务APP将根据老百姓的切身需求,不断完善。etc缴费、个税查询、城乡居民医疗保险缴费、养老保险缴费、交通违法缴款等功能也即将上线,真正迎来互联网便民新时代。

3、正常进入snkrs无法看见这几双的发售,第一,先尝试关闭/打开wifi,如果还是不能显示就切换g,依然不能解决就退出重新登陆;

4、完全原创制作的乐理视频,让你快乐学会音乐原理

5、新推出出题模块,快来试试吧优化若干内容

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>高(gao)精(jing)度(du)壓(ya)縮(suo)Transformer,NNI剪(jian)枝(zhi)壹(yi)站(zhan)式(shi)指(zhi)南(nan)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

來(lai)源(yuan):微(wei)軟(ruan)亞(ya)洲(zhou)研(yan)究(jiu)院(yuan)

編(bian)輯(ji):QQ

【新智元導(dao)讀(du)】集(ji)成(cheng)前(qian)沿(yan)算(suan)法(fa),N NI(Neural Network Intelligence)大(da)更(geng)新。

無(wu)論(lun)在(zai)學(xue)術(shu)界(jie)還(hai)是(shi)產(chan)業(ye)界,今(jin)年(nian)人(ren)工(gong)智能(neng)大模(mo)型(xing)都(dou)是爆(bao)款(kuan)話(hua)題(ti)。但(dan)面(mian)對(dui)這(zhe)些(xie)動(dong)不(bu)动就(jiu)數(shu)十(shi)億(yi)級(ji)別(bie)參(can)数的(de)模型,使(shi)用(yong)傳(chuan)統(tong)方(fang)法微調(tiao),宛(wan)如(ru)水(shui)中(zhong)撈(lao)月(yue)、海(hai)底(di)捞針(zhen)。作(zuo)為(wei)微软亚洲研究院为科(ke)研人員(yuan)和(he)算法工程(cheng)師(shi)量(liang)身(shen)定(ding)制(zhi)的一站式 AutoML(自(zi)动機(ji)器(qi)学習(xi))工具(ju), NNI(Neural Network Intelligence)在過(guo)去(qu)的三(san)年間(jian)不斷(duan)叠(die)代(dai)更新,加(jia)強(qiang)了(le)对各(ge)種(zhong)分(fen)布(bu)式訓(xun)練(lian)環(huan)境(jing)的支(zhi)持(chi),成为了最(zui)熱(re)門(men)的 AutoML 開(kai)源項(xiang)目(mu)之(zhi)一。

近(jin)日(ri),微软亚洲研究院对 NNI 進(jin)行(xing)了更新。在最新的版(ban)本(ben)中,NNI 集成了大量前沿的剪枝算法,如 TaylorFO Weight、Movement 等(deng)。基(ji)於(yu)現(xian)有(you)的經(jing)典(dian)預(yu)训练模型,研究员們(men)通(tong)过大量實(shi)驗(yan),發(fa)现了既(ji)能降(jiang)低(di)模型参数量和計(ji)算量,又(you)能保(bao)持模型較(jiao)高精度的剪枝步(bu)驟(zhou)與(yu)算法組(zu)合(he),獲(huo)得(de)超(chao)越(yue) SOTA 的模型剪枝效(xiao)果(guo)。

今天(tian)我(wo)们就以(yi) Transformer 系(xi)列(lie)的预训练模型和数據(ju)集 GLUE-MNLI 为例(li),为大家(jia)介(jie)紹(shao)一下(xia) NNI 的 pruner 剪枝流(liu)程和使用的剪枝算法组合。

剪枝流程

在正(zheng)式介绍剪枝流程前,我们需(xu)要(yao)先(xian)了解(jie)什(shen)麽(me)是 pruner,mask 和 SpeedUp。

pruner:使用具體(ti)的剪枝算法实例化(hua)的剪枝器。

mask:在剪枝过程中,pruner 會(hui)生(sheng)成一個(ge)和目標(biao)子(zi)模塊(kuai)大小(xiao)相(xiang)同(tong)的 mask(全(quan)1)矩(ju)陣(zhen),並(bing)在 mask 矩阵中將(jiang)目标子模块中需要剪掉(diao)的部(bu)分的对應(ying)位(wei)置(zhi)置为0。最後(hou)通过将目标子模块和对应的 mask 矩阵相乘(cheng),即(ji)可(ke)得到(dao)模擬(ni)剪枝后的模型效果。

SpeedUp:從(cong)上(shang)述(shu)描(miao)述可以看(kan)出(chu),在剪枝过程中,实際(ji)上只(zhi)是将需要剪枝的部分用0进行了替(ti)換(huan),因(yin)此(ci)使用 SpeedUp 模块是修(xiu)剪上述目标子模块中需要剪掉的参数,而(er)不是用0替代,从而实现真(zhen)正意(yi)義(yi)上的減(jian)少(shao)参数量。

在使用 NNI Compression 模块中的 pruner 进行剪枝操(cao)作時(shi),用戶(hu)只需完(wan)成数据/模型等的準(zhun)備(bei)、pruner 的構(gou)建(jian),以及(ji)模型剪枝和再(zai)训练,即可为模型构建一个剪枝的 pipeline。

以 Transformer 系列的预训练模型为例,其(qi)剪枝流程共(gong)包(bao)含(han)4步:首(shou)先准备数据/模型等,接(jie)著(zhe)针对多(duo)頭(tou)自註(zhu)意力(li)机制(Multi-head Attention)、嵌(qian)入(ru)層(ceng)(embedding)和前饋(kui)神(shen)经網(wang)絡(luo)(FFN)分别剪枝和再训练模型。

圖(tu)1:Transformer 系列模型的剪枝流程示(shi)意图

1. 准备数据/模型等

在正式构建剪枝过程之前,用户需要加載(zai)预训练模型,对数据预處(chu)理(li)并創(chuang)建相应的 dataloader,同时設(she)计相应的训练/評(ping)估(gu)函(han)数,以用于后期(qi)对模型的训练和评估。其流程如图2所(suo)示,共包含5步:

图2:数据/模型准备过程的流程示意图

具体来說(shuo),首先需要从 Transformers 庫(ku)中加载预训练模型,然(ran)后对数据 GLUE-MNLI 进行处理,并得到相应的 dataloader。隨(sui)后,针对模型和数据集 GLUE-MNLI,构建相应的训练/评估函数。最后将模型在 GLUE-MNLI 数据集上进行微调。

完成以上步骤就相當(dang)于完成了数据/模型等的准备工作,可以得到预训练模型在 MNLI 数据集上微调后的模型。考(kao)慮(lv)到 Transformer 系列预训练模型的模型参数中的大头为嵌入层,且(qie)编碼(ma)层/解码层中包含了多头自注意力机制和前馈神经网络。因此,在之后的步骤中需要分别对多头自注意力机制、嵌入层和前馈神经网络剪枝,并引(yin)入动態(tai)蒸(zheng)餾(liu)机制对剪枝后的模型再训练。

2. 多头自注意力机制的剪枝和基于动态蒸馏机制的模型再训练

多头自注意力模块的剪枝和模型再训练分为3步,如图3所示:首先要构建 pruner,接着对多头自注意力模块进行剪枝,最后使用动态蒸馏机制再训练模型。

图3:多头自注意力机制的剪枝和再训练流程示意图

在进行剪枝前,用户需要選(xuan)定一个剪枝算法并实例化相应的 pruner。所有的剪枝算法均(jun)需向(xiang)模型中传入 config_list 参数,因为其定义了需要剪枝的運(yun)算名(ming)、运算類(lei)别及稀(xi)疏(shu)度等。具体到 Movement 剪枝算法,还需要设置其他(ta)的一些参数,如:evaluator 参数,用于训练感(gan)知(zhi)的模型压缩过程;movement_mode 参数,共有「soft」和「hard」兩(liang)种模式,若(ruo)为「soft」,則(ze)難(nan)以精確(que)地(di)控(kong)制模型剪枝后的稀疏度,但是可以得到性(xing)能更好(hao)的模型。参数 regular_scale 用于控制剪枝的稀疏度,regular_scale 越大,模型剪枝后的稀疏度越高。

接下来,要使用构造(zao)的剪枝算法实例 pruner 对多头自注意力模块进行剪枝。用户只需调用 pruner.compress 即可執(zhi)行对模型的剪枝过程,并得到剪枝后的模型和 attention_mask。其中 attention_mask 給(gei)出了需要剪枝的子模块的参数剪枝範(fan)圍(wei),0代表(biao)該(gai)位置被(bei)剪掉,1代表该位置被保留(liu)。

NNI 的 SpeedUp 模块可以将被 mask 住(zhu)的参数和计算从模型中刪(shan)除(chu),具体的删除邏(luo)辑如图4所示,以 Query Linear 层的 weight(記(ji)作Q)为例,其維(wei)度为[768,768],那(na)么 Q 的 weight 的 mask 矩阵维度也(ye)为[768, 768],将其记作 mask。首先将该 mask 矩阵的维度进行變(bian)换,第(di)一维是多头数目8,其余(yu)的则是第二(er)维,将变换后的 mask 矩阵记作 reshaped mask 矩阵。接着,对 reshaped mask 矩阵在第二维度上求(qiu)和,并判(pan)断求和后的值(zhi)是否(fou)为0,此时的 mask 矩阵维度变为[8],每(mei)个位置对应着一个多头。对于变换后的 mask 矩阵,若位置 i 的值为0,则代表在 Q 中的第 i 个多头需要被剪掉。在图中,位置0、3、7的值均为0,因此,在Q中的第0、3、7个多头需要被剪掉。最后,将[0,3,7]作为参数传入 prune_heads 函数中,对 Q 进行修剪。修剪后,Q 的维度为[576,768]。对 SpeedUp 更加全面的介绍可以参考发表于 OSDI 2022 的论文(wen) SparTA 。在即将发布的 NNI 3.0 中 SpeedUp 会对更多模型提(ti)供(gong)更加完善(shan)的支持。

图4:利(li)用 prune_heads 函数修剪自注意力模块的过程示意图

在对多头自注意力模块剪枝后,以微调后的模型作为教(jiao)师模型,以剪枝后的模型作为学生模型,然后借(jie)鑒(jian) CoFi 中的动态蒸馏机制 [1] 对模型进行再训练,就可以得到新的模型。这裏(li)的动态蒸馏机制,是指教师模型的层和学生模型的层之间不是一个靜(jing)态对应關(guan)系,每次(ci)蒸馏教师都可以选擇(ze)从自身的高层动态蒸馏信(xin)息(xi)到学生模型低层中的一层里。

3. 嵌入层和前馈神经网络的剪枝,以及基于动态蒸馏机制的模型再训练

嵌入层和前馈神经网络的剪枝过程与多头自注意力模块的剪枝过程类似(si)。此处使用 Taylor 剪枝算法对嵌入层和前馈神经网络进行剪枝。同樣(yang)地,研究员们定义了 config_list、evaluator 参数及 taylor_pruner_steps 参数。由(you)于嵌入层的维度与后續(xu)模型中的维度具有相关性。因此,基于上述参数,在嵌入层的剪枝过程中研究员们将剪枝模式 mode 设置为了「dependency-aware」模式,并传入模型的輸(shu)入 dummy_input,以幫(bang)助(zhu) pruner 捕(bu)捉(zhuo)和嵌入层维度具有依(yi)賴(lai)关系的子模型。

接下来,使用分别构造的 pruner 对前馈神经网络和嵌入层进行剪枝。和多头自注意力模块的剪枝不同的是,此处使用了迭代式剪枝法,即在模型基于动态蒸馏的再训练过程中,每2000步分别使用 pruner 对前馈神经网络和嵌入层剪枝一次,其中,前馈神经网络共剪枝19/24次,嵌入层共剪枝3次。每次剪枝后,使用 ModelSpeedUp 对前馈神经网络层进行剪枝,以实现真正意义上的修剪参数,而不是将需要修剪的参数用0替换。

实验結(jie)果

通过调整(zheng) regular_scale 参数的值和前馈神经网络的剪枝次数,研究员们得到了具有不同稀疏度和性能的模型。该过程使用了1張(zhang) A100 进行实验,并设置 batch_size 为32。

图5:实验结果

从上图实验结果可以看出:

随着 regular_scale 的增(zeng)加,模型總(zong)的稀疏度有所增加。当 regular_scale 大于等于10时,模型总的稀疏度超过了69%,性能損(sun)失(shi)超过1%。

随着前馈神经网络剪枝次数的增加,模型总的稀疏度有所增加,同时模型的性能有所下降,且随着模型总稀疏度的增加,模型的性能下降程度逐(zhu)漸(jian)增大。

对嵌入层剪枝3次,能夠(gou)将模型的维度从768减小至(zhi)561,在一定程度上提升(sheng)了模型总的稀疏度。

实验结果与平(ping)臺(tai)对比(bi)

进一步分析(xi)实验结果可以发现,使用 NNI 对 BERT 在 MNLI 数据集上剪枝后的性能好于 nn pruning 框(kuang)架(jia)(图6(a)),且当模型总的稀疏度低于65%时,NNI 和 CoFi 对 BERT 在 MNLI 数据集上剪枝的性能差(cha)距(ju)较小,当模型总的稀疏度大于65%时,使用 NNI 对 BERT 在 MNLI 数据集上剪枝后的性能好于 CoFi。图6(b)和图6(c)分别展(zhan)示了 NNI 在 T5 和 ViT 模型上的剪枝性能。从图中可以看出,当模型相应部分的稀疏度超过了75%后,模型性能下降約(yue)为3%,当模型相应部分的稀疏度低于50%时,模型性能下降较少。

(a)

(b)

(c)

图6:NNI 在经典预训练模型下的剪枝性能示意图

三个平台(Paper)的詳(xiang)細(xi)比较结果,如表1所示。可以看出,NNI 的 Compression 模块不僅(jin)具有完整的教程实例,同时还提供了 SpeedUp 模块,能够实现真正意义上的减少模型参数量,而非(fei)将需要修剪的参数置为0。

同时,NNI 支持 BERT、RoBerta、GPT、BART、T5、ViT 等主(zhu)流模型,并提供了 Taylor、Movement、ADMM、Slim、AGP、Activation APoZ、Activation Mean 等16种前沿剪枝算法,能够更好地滿(man)足(zu)用户的需求,具有较强的通用性。

表1:各平台(Paper)功(gong)能对比总结

展望(wang)未(wei)来

在 NNI 3.0 版本中,微软亚洲研究院的研究员们还将引入蒸馏模块,更好地为用户提供集剪枝、蒸馏为一体的压缩工具,同时 SpeedUp 模块也将更全面地支持对 Transformer 的修剪。敬(jing)請(qing)期待(dai)!

关于最新版 NNI 的完整代码和 tutorial,请参見(jian):

https://nni.readthedocs.io/zh/stable/tutorials/pruning_bert_glue.html

参考資(zi)料(liao):

https://arxiv.org/pdf/2204.00408.pdf返(fan)回(hui)搜(sou)狐(hu),查(zha)看更多

責(ze)任(ren)编辑:

发布于:山西运城平陆县