美容仪推广大作战,让你的皮肤重现青春

网络资源与美容仪推广大作战,让你的皮肤重现青春

在现代社会,拥有一张美丽的皮肤是每个女性的梦想。然而,随着环境污染和生活压力的增加,越来越多的人开始遭受皮肤问题的困扰。随着科技的发展,美容仪的出现已经帮助了许多人解决了这些问题。在这篇文章中,我们将从多个角度来探讨美容仪是如何重新定义皮肤护理的。

美容仪是如何工作的

美容仪是一种高科技的皮肤护理设备,其使用基于导入和导出原理。导入是指将营养成分导入到皮肤中,而导出是指将皮肤表面的污垢和毒素排出。

美容仪能够通过微电流、射频、激光和声波等技术来刺激皮肤的细胞,促进胶原蛋白的产生,从而达到紧致、淡斑、美白和消除皱纹的效果。此外,美容仪还可以改善毛孔粗大,淡化黑眼圈和眼袋,增强皮肤的保湿能力,使皮肤更加有光泽。

美容仪的优点

相对于传统的皮肤护理方法,美容仪具有许多优点。首先,美容仪是一种非侵入性的护理方法,不需要注射或手术,因此风险较小,效果也更加持久。

其次,美容仪可以根据不同的皮肤类型和需求进行定制化的护理,比如针对痘痘、雀斑、粉刺等问题,选择不同的功效模式,从而达到最佳的效果。

此外,随着美容仪的不断升级,许多智能化的美容仪已经能够连接智能手机应用程序,可以根据皮肤的状态和需求,提供个性化的使用建议和记录每次使用的效果,帮助用户更好地了解自己的皮肤,并进行科学有效的护理。

如何选择合适的美容仪

如今市场上的美容仪种类繁多,价格和品牌也各不相同。那么,如何选择合适的美容仪呢?

首先,我们应该了解自己的皮肤类型,选择适合自己和解决自己问题的美容仪。其次,我们应该选择知名品牌的美容仪,确保其技术和品质的可靠性。

最后,我们也可以参照其他用户的评价和经验,进行参考和选择,以确保选择的美容仪具有较高的性价比和使用效果。

美容仪未来的发展前景

美容仪作为一种新型的皮肤护理方式,未来的发展前景非常广阔。随着技术的不断进步,美容仪的功能将更加智能化和定制化,帮助用户更好地了解自己的皮肤问题并进行针对性的护理。

此外,随着消费者对健康和美容的需求不断增加,美容仪也将成为一种新型的消费趋势,在未来的市场中具有广阔的应用前景。

总结

总的来说,美容仪作为一种高科技的皮肤护理设备,已经成为许多人的首选。其具有非侵入性的特点、定制化的护理、智能化的使用方式以及广阔的发展前景,使得其在未来的皮肤护理市场中具有重要的地位和应用潜力。

问答话题

Q1:美容仪使用是否会有副作用?

美容仪使用时,如果使用不当或者使用不合适的产品,可能会引起皮肤过敏、瘙痒等问题。因此,在使用美容仪之前,应该了解自己的皮肤类型和需求,选择合适的产品和使用方式,并根据说明书进行正确的使用。

Q2:美容仪可以对所有皮肤问题进行解决吗?

美容仪不能对所有皮肤问题进行解决,其能够解决的问题包括淡化斑点、美白、紧致、消除皱纹等。对于其他皮肤问题,如痤疮、过敏等,应该选择其他的治疗方法。

Q3:美容仪使用的频率是多久一次?

美容仪使用的频率应该根据自己的皮肤类型和需求来定制。一般来说,使用频率最好是一周1-2次,每次使用时间不宜过长,以保证皮肤不受过度刺激。

美容仪推广大作战,让你的皮肤重现青春随机日志

哪里有需求,哪里就有市场,若有用户发布售卖信息,该软件必定会有用户联系购买。

1、将收件人的电子邮件地址复制并粘贴到“发送到”区域,每行一个。您可以单击“删除重复的”按钮,让自动电子邮件发件人删除重复的电子邮件收件人。

2、优化学情分析、课程表、搜题、班级圈、班级群、群聊等功能模块

3、多次尝试后仍不能查看回放录像,但存储卡在其他电子设备上可以正常使用,请联系售后

4、输入要降低版本的网址,然后点击右侧的“添加”按钮

5、用赵本山的话说这玩意太重要了,人不学习那一定会落伍一定会被社会无情的淘汰;做业务拼的就是个人的综合能力,而学校永远没办法给你这些,所以家国天下,儿女情长你都要去关心去学习。漫漫的你就会发现和很多的人有共同的语言,你会发现肚子里和脑袋里有更多的料了。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>幹(gan)掉(diao)「標(biao)題(ti)黨(dang)」,清(qing)華(hua)團(tuan)隊(dui)又(you)壹(yi)開(kai)源(yuan)力(li)作(zuo)!

新(xin)智(zhi)元(yuan)報(bao)道(dao)

作者(zhe):OpenBMB开源社(she)區(qu)(GitHubDaily)

編(bian)輯(ji):David

【新智元導(dao)讀(du)】寫(xie)公(gong)眾(zhong)號(hao)文(wen)章(zhang)什(shen)麽(me)最(zui)頭(tou)疼(teng)?起(qi)标题!清华大(da)學(xue)與(yu)OpenBMB开源社区推(tui)出(chu)的(de)大模(mo)型(xing)趣(qu)味(wei)應(ying)用(yong):「智取(qu)标题」,輸(shu)入(ru)正(zheng)文內(nei)容(rong),一鍵(jian)生(sheng)成(cheng)勁(jin)爆(bao)标题!

作為(wei)一個(ge)起名(ming)困(kun)難(nan)戶(hu),高(gao)中(zhong)写作文最困擾(rao)我(wo)的就(jiu)是(shi)写好(hao)文章卻(que)不(bu)知(zhi)道起什么题目(mu),开始(shi)做(zuo)公众号以(yi)後(hou),每(mei)次(ci)想(xiang)标题也(ye)都(dou)要(yao)掉一大把(ba)头發(fa)......

最近(jin),終(zhong)於(yu)讓(rang)我在(zai) GitHub 发現(xian)了(le)「取名廢(fei)」之(zhi)光(guang),由(you)清华大学与 OpenBMB 开源社区推出的大模型趣味应用:「智取标题」,输入正文内容就能(neng)一键生成劲爆标题!

开箱(xiang)即(ji)用,試(shi)過(guo)后我只(zhi)能說(shuo):真(zhen)香(xiang)!

在線(xian)體(ti)驗(yan):https://live.openbmb.org/ant

GitHub:https://github.com/OpenBMB/CPM-Live

提(ti)到(dao)這(zhe)个标题党神(shen)器(qi),就不得(de)不先(xian)好好聊(liao)一聊它(ta)的「本(ben)体」——大模型 CPM-Ant。

CPM-Ant 作为國(guo)内首(shou)个直(zhi)播(bo)訓(xun)練(lian)百(bai)億(yi)大模型, 训练耗(hao)時(shi) 68 天(tian),于 2022 年(nian) 8 月(yue) 5 日(ri)完(wan)成,並(bing)由 OpenBMB 正式(shi)发布(bu)!

五(wu)大卓(zhuo)越(yue)特(te)性(xing) 四(si)大創(chuang)新突(tu)破(po) 训练过程(cheng) 低(di)成本且(qie)環(huan)境(jing)友(you)好! 最重(zhong)要的是——完全(quan)开源!

作为首个直播训练中文大模型,CPM-Ant 在大模型训练、微(wei)調(tiao)、壓(ya)縮(suo)、推理(li)、应用等(deng)环節(jie)均(jun)提供(gong)了一份(fen)可(ke)行(xing)的實(shi)踐(jian)方(fang)案(an),希(xi)望(wang)能为不同(tong)的關(guan)註(zhu)者提供不同的幫(bang)助(zhu)与參(can)考(kao)。

下(xia)面(mian),让我們(men)一起來(lai)看(kan)看 CPM-Ant 发布成果(guo)内容报告(gao)吧(ba)!

模型概(gai)覽(lan)

CPM-Ant 是一个开源的中文預(yu)训练語(yu)言(yan)模型,擁(yong)有(you) 10B 参數(shu),也是 CPM-Live 直播训练过程中的第(di)一个裏(li)程碑(bei)。

整(zheng)个训练过程低成本且环境友好,不需(xu)要高昂(ang)的硬(ying)件(jian)要求(qiu)和(he)運(yun)行成本,基(ji)于 增(zeng)量(liang)微调(delta tuning)方法(fa),在 CUGE 基準(zhun)測(ce)试中取得了優(you)異(yi)的結(jie)果。

CPM-Ant 相(xiang)关代(dai)碼(ma)、日誌(zhi)文件和模型参数在一个开放(fang)的許(xu)可協(xie)議(yi)下完全开源。除(chu)了完整的模型,OpenBMB 還(hai)提供了各(ge)種(zhong)压缩版(ban)本以適(shi)应不同的硬件配(pei)置(zhi)。

CPM-Ant 的五大卓越特性:

(1)計(ji)算(suan)高效(xiao)

通(tong)过 BMTrain[1] 工(gong)具(ju)包(bao),能夠(gou)充(chong)分(fen)利(li)用分布式计算資(zi)源的能力来高效训练大模型。

CPM-Ant 的训练持(chi)續(xu)了 68 天,花(hua)費(fei)了 43 萬(wan)人(ren)民(min)幣(bi),是谷(gu)歌(ge)训练 T5-11B 模型約(yue) 130 万美(mei)元费用的 1/20。训练 CPM-Ant 的溫(wen)室(shi)氣(qi)体排(pai)放量约为 4872kg CO?e,而(er)训练 T5-11B 的排放量为 46.7t CO?e[9] ,CPM-Ant 的方案约为其(qi)排放量的 1/10。

(2)性能优异

借(jie)助 OpenDelta[3] 工具,能够非(fei)常(chang)方便(bian)地(di)通过增量微调將(jiang) CPM-Ant 适配到下遊(you)任(ren)務(wu)。

实验表(biao)明(ming),CPM-Ant 僅(jin)仅微调了 6.3M 参数就在 3/6 个 CUGE 任务上(shang)取得了最好的结果。这一结果超(chao)越了其他(ta)全参数微调的模型,舉(ju)例(li)来说:CPM-Ant 的微调参数量仅为 CPM2(微调了 11B 参数) 的 0.06%。

(3)部(bu)署(shu)經(jing)濟(ji)

借助BMCook[7] 和 BMInf[4] 工具包,能够在有限(xian)的计算资源下驅(qu)動(dong) CPM-Ant。

基于 BMInf ,能够替(ti)代计算集(ji)群(qun) 在單(dan)塊(kuai) GPU 上進(jin)行大模型推理(即便是一块 GTX 1060 这樣(yang)的消(xiao)费級(ji)顯(xian)卡(ka))。为了使(shi) CPM-Ant 的部署更(geng)加(jia)经济, OpenBMB 使用 BMCook 进一步(bu)将原(yuan)始的 10B 模型压缩为不同的版本。压缩后的模型(7B,3B,1B,300M)能够适应不同低资源場(chang)景(jing)下的需求。

(4)使用便捷(jie)

不管(guan)是原始 10B 模型还是相关的压缩版本,通过幾(ji)行代码就能够輕(qing)松(song)地加載(zai)与运行。

OpenBMB 也會(hui)将 CPM-Ant 加入到 ModelCenter[8] 中,對(dui)模型的进一步开发会變(bian)得更加容易(yi)。

(5)开放民主(zhu)

CPM-Ant 的训练过程完全开放。

OpenBMB 发布了所(suo)有的代码、日志文件和模型存(cun)檔(dang)并提供开放獲(huo)取。CPM-Ant 也采(cai)用了允(yun)许商(shang)業(ye)化(hua)的开放许可协议。

一份完整的大模型训练实践

对于有能力进行大模型训练的廠(chang)商与研(yan)究(jiu)機(ji)構(gou),CPM-Ant 训练过程提供了一份完整的中文大模型训练实戰(zhan)記(ji)錄(lu)。

OpenBMB 发布了 CPM-Live 系(xi)列(lie)模型的 模型設(she)计、训练方案、数據(ju)需求和实现代码。基于 CPM-Live 的模型架(jia)构,能够方便快(kuai)速(su)地设计实现大模型训练方案并整理相关的业务数据,完成模型预研和数据准備(bei)工作。

官(guan)方網(wang)站(zhan)中记录了训练过程中的 全部训练动態(tai),包括(kuo)損(sun)失(shi)函(han)数、学習(xi)率(lv)、已(yi)学习数据、吞(tun)吐(tu)量、梯(ti)度(du)大小(xiao)、花费成本曲(qu)线,以及(ji)模型内部参数均值(zhi)和标准差(cha)实时展(zhan)示(shi),通过这些(xie)训练动态,使用者能够快速診(zhen)斷(duan)模型训练过程是否(fou)出现問(wen)题。

模型训练内部参数实时展示

此(ci)外(wai),OpenBMB 的研发同学每天实时更新 训练记录總(zong)结,总结内容包括损失值、梯度值、总体进展,还记录了遇(yu)到的一些问题和训练过程中的 bug,方便使用者提前(qian)了解(jie)模型训练过程中的可能会遇到的各种「坑(keng)」。

在模型训练「風(feng)平(ping)浪(lang)靜(jing)」的日子(zi),研发小哥(ge)也会拋(pao)出一些名言名句(ju)、介(jie)紹(shao)一些最新論(lun)文、甚(shen)至(zhi)发起猜(cai)謎(mi)活(huo)动。

日志中的一次猜谜活动

除此之外,OpenBMB 还提供了 成本经济 的 训练方案,对于实際(ji)有大模型训练需求的企(qi)业,通过相关训练加速技(ji)術(shu),训练成本已经降(jiang)低到可以接(jie)受(shou)的水(shui)平。

使用 BMTrain[1] 工具包,百亿大模型 CPM-Ant 训练的算力花费仅 43 万人民币(當(dang)前花费依(yi)照(zhao)公有雲(yun)價(jia)格(ge)计算,实际成本会更低),是 11B 大模型 T5 外界(jie)估(gu)算成本 130 万美元的约 1/20!

一份屢(lv)创 SOTA 的高效微调方案

CPM-Ant 如(ru)何(he)帮助我们进行下游任务适配?

对于大模型研究者,OpenBMB 提供了一份基于参数高效微调的大模型性能評(ping)测方案,方便快速进行下游任务适配并评测模型性能。

使用参数高效微调,即增量微调(delta tuning)来评估 CPM-Ant 在六(liu)个下游任务上的性能。实验中采用了 LoRA[2] ,它在每个注意(yi)層(ceng)中插(cha)入了兩(liang)个可调整的低秩(zhi)矩(ju)陣(zhen),并凍(dong)结了原始模型的所有参数。使用这种方法,每个任务只微调了 6.3M 的参数,仅占(zhan)总参数的 0.067%。

在 OpenDelta[3] 的帮助下,OpenBMB 进行了所有的实验,而沒(mei)有修(xiu)改(gai)原始模型的代码。需要指(zhi)出的是,在下游任务上评测 CPM-Ant 模型时,没有使用任何数据增強(qiang)的方法。实验结果如下表所示:

可以看到,在仅微调極(ji)少(shao)参数的情(qing)況(kuang)下,OpenBMB 的模型在三(san)个数据集上的性能已经超过了 CPM-2 和源 1.0。

有些任务(例如 LCSTS)在微调参数极少时可能会比(bi)較(jiao)难以学习, CPM-Live 的训练过程将会持续进行,在各个任务上的性能也会被(bei)进一步打(da)磨(mo)。

感(gan)興(xing)趣的同学,可訪(fang)问下方 GitHub 鏈(lian)接,搶(qiang)先体验下 CPM-Ant 和 OpenDelta,进一步探(tan)索(suo) CPM-Ant 在其他任务上的能力!

https://github.com/OpenBMB/CPM-Live

一系列硬件友好的推理方式

大模型性能固(gu)然(ran)驚(jing)艷(yan),但(dan)高昂的硬件要求和运行成本一直困扰著(zhe)许多(duo)使用者。对于大模型使用者,OpenBMB提供了一系列硬件友好的使用方式,能够较为方便地在不同硬件环境下运行不同的模型版本。

使用 BMInf[4] 工具包, CPM-Ant 可以在单卡 1060 这样的 低资源环境 中运行!

除此之外,OpenBMB 还将 CPM-Ant 进行了压缩。这些压缩的模型包括 CPM-Ant-7B/3B/1B/0.3B。而所有这些模型压缩尺(chi)寸(cun)都可以对应于现有的开源预训练语言模型的经典(dian)尺寸。

考慮(lv)到用户可能会在发布的檢(jian)查(zha)點(dian)上进行进一步的开发,OpenBMB 主要使用 任务無(wu)关的结构化剪(jian)枝(zhi) 来压缩 CPM-Ant。剪枝过程也是漸(jian)进的,即從(cong) 10B 到 7B,从 7B 到 3B,从 3B 到 1B,最后从 1B 到 0.3B。

在具体的剪枝过程中,OpenBMB 会训练一个 动态的可学习的掩(yan)码矩阵,然后用这个掩码矩阵来 裁(cai)剪相应的参数。最后,根(gen)据掩码矩阵的閾(yu)值修剪参数,該(gai)阈值是根据目标稀(xi)疏(shu)度確(que)定(ding)的。更多压缩的細(xi)节可以参考技术博(bo)客(ke)[5] 。

下表展示了模型压缩的结果:

硬核(he)的内容講(jiang)完了,那(na)么大模型到底(di)怎(zen)么帮我们「取标题」呢(ne)?

一款(kuan)出乎(hu)意料(liao)的大模型趣味应用

基于 CPM-Ant,所有大模型开发者与愛(ai)好者都可以开发感兴趣的文本趣味应用。

为了进一步验證(zheng)模型的有效性并提供範(fan)例,OpenBMB 在 CPM-Ant 基礎(chu)上微调了一个 劲爆标题生成器 以展示模型能力。

只需要把正文内容粘(zhan)貼(tie)到下方文本框(kuang),一键点擊(ji)生成,就可以得到大模型提供的劲爆标题!

CPM-Ant 成果报告首发文章标题即由生成器生成

这款 demo将不断被打磨,并在未(wei)来添(tian)加更多的特殊(shu)效果,增强用户体验

感兴趣的用户也可以使用 CPM-Ant 构建(jian)自(zi)己(ji)的展示应用。如果有任何应用想法、需要技术支(zhi)持或(huo)者在使用 demo 过程中遇到任何问题,可以隨(sui)时在 CPM-Live 论壇(tan)[6] 发起討(tao)论!

CPM-Ant 的发布是 CPM-Live 的第一个里程碑,但也仅仅是训练的第一期(qi),未来OpenBMB还会繼(ji)续进行一系列训练。

簡(jian)单劇(ju)透(tou)一下,下一期的训练中将新增多语言支持、结构化输入输出等新特性,歡(huan)迎(ying)大家(jia)继续关注!

傳(chuan)送(song)門(men)|項(xiang)目链接

项目 GitHub 地址(zhi):

https://github.com/OpenBMB/CPM-Live

Demo 体验地址(仅限 PC 访问):

https://live.openbmb.org/ant

参考资料:

BMTrain: https://github.com/OpenBMB/BMTrain

LoRA: Low-Rank Adaptation of Large Language Models. ICLR 2021.

OpenDelta: https://github.com/thunlp/OpenDelta

BMInf: https://github.com/OpenBMB/BMInf

技术博客:https://www.openbmb.org/community/blogs/blogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92

CPM-Live 论坛:

https://github.com/OpenBMB/CPM-Live/discussions/categories/application-ideas-%E5%BA%94%E7%94%A8%E6%83%B3%E6%B3%95

BMCook: https://github.com/OpenBMB/BMCook

Model Center: https://github.com/OpenBMB/ModelCenter

《Carbon emissions and large neural network training》. https://arxiv.org/pdf/2104.10350.pdf返(fan)回(hui)搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:湖北十堰郧西县