美肌首选!洗脸用广告词精选 (Beauty must-have! Selected copy for facial cleanser ads)

美肌首选!洗脸用广告词精选

在我们日常的美容护肤中,洗脸是最基础而又必不可少的环节。洗脸可以去除脸上的污垢和汗渍,清洁毛孔,减少因为外界环境和化妆品残留引起的皮肤问题。但是,在选择洗面奶时,我们很容易被广告词所吸引,但是否真的适合自己的肌肤呢?本文将从四个方面对洗脸用广告词进行详细解析。

一、广告词温和

在各种洗面奶广告中,经常会出现温和的字眼。温和的洗面奶可以有效地去除脸部污垢,同时保护皮肤不受到伤害。但是,什么样的洗面奶才是温和的呢?一般来说,洗面奶中的成分越多,越可能会刺激皮肤。所以,在选择洗面奶时,最好选择少量成分、没有香料和色素的产品。同时,注意自己肌肤的类型,有痘痘肌和敏感肌的人最好选择专门的洗面奶。

二、广告词保湿

除了温和之外,保湿也是洗面奶广告中经常出现的关键词。皮肤缺乏水分会导致干燥和过敏,所以保湿是很重要的。但是,一般来说,洗面奶的保湿效果是有限的。洗面奶能够起到的作用是清洁,而非保湿。所以,选择保湿型的洗面奶并不能很好地达到保湿的效果,最好在洗脸后使用化妆水和乳液来滋润皮肤。

三、广告词深层清洁

除了保湿之外,广告中还会出现深层清洁这种字眼。这种洗面奶通常会添加一些成分,能够深入毛孔内部去除油脂和污垢。但是,过度清洁会破坏皮肤的保护膜,导致肌肤干燥和过敏。所以,在选择清洁力强的洗面奶时,考虑到自己肌肤的敏感程度和使用频率,不要过度清洁。

四、广告词美白

最后,洗面奶广告中还常出现美白这一关键词。肌肤的美白更多是因为后续保养的原因,而不是洗面奶的作用。所以,选择美白洗面奶并不能达到立竿见影的效果,最好在洗脸之后使用美白化妆水和乳液来达到美白的效果。

总结

在选择洗面奶时,广告词非常容易让我们产生误解。因此,在购买洗面奶时,需要根据自己的肌肤情况和具体需求进行选择。同时,洗面奶只是日常护肤的起点,后续的保养才是美肌的关键。因此,购买洗面奶的同时,也需要搭配其他的保养品,才能真正达到美肌的效果。问答话题:1. 洗面奶中的成分对皮肤有影响吗?是的,洗面奶中的成分对皮肤有很大的影响。洗面奶中的成分越多,越可能会刺激皮肤,导致过敏和痘痘。所以,在选择洗面奶时,最好选择少量成分、没有香料和色素的产品。2. 广告中经常会出现温和和保湿这两个关键词,它们的效果真的有效吗?温和和保湿是洗面奶广告中常见的关键词。但是需要明确的是,洗面奶的主要作用是清洁,而非保湿和滋润。因此,保湿和滋润的效果不会很明显。但是,选择温和型的洗面奶可以减少对皮肤的刺激,保持皮肤的健康状态。

美肌首选!洗脸用广告词精选 (Beauty must-have! Selected copy for facial cleanser ads)随机日志

想要下载网页视频,我们只需要将视频的URL地址复制,运行软件点击左上角的【打开URL】,将地址复制到里面。

1、然后在服务器上运行hbbs/hbbr(Centos或Ubuntu)

2、详尽的员工上网统计报表,可供管理部门作为对员工的考评依据

3、成衣铺新增人设馆,会员可随意更换哦,也可以选择Co钻购买,让你喜欢的角色陪你一起上自习!

4、6多格式数据导入、导出,包括kml、mysql、gpx、plt、shp等。

5、修复已知错误问题,优化系统部分细节,进一步提升用户体验。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>壹(yi)文(wen)解(jie)決(jue)所(suo)有(you)「語(yu)言(yan)模(mo)型(xing)」疑(yi)問(wen):能(neng)不(bu)能訓(xun)多(duo)個(ge)epoch?怎(zen)麽(me)微(wei)調(tiao)效(xiao)率(lv)高(gao)?需(xu)要(yao)多少(shao)條(tiao)數(shu)據(ju)?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】關(guan)於(yu)语言模型,妳(ni)的(de)问題(ti)可(ke)能已(yi)經(jing)有了(le)答(da)案(an)。

過(guo)去(qu)幾(ji)个月(yue)裏(li),Meta的LLaMA引(yin)領(ling)了一場(chang)语言模型的開(kai)源(yuan)狂(kuang)潮(chao),並(bing)且(qie)隨(sui)著(zhe)大(da)眾(zhong)對(dui)语言模型训練(lian)研(yan)究(jiu)的深(shen)入(ru),很(hen)多问题也(ye)都(dou)有了答案。

比(bi)如(ru)需要人(ren)類(lei)反(fan)饋(kui)和(he)強(qiang)化(hua)學(xue)習(xi)來(lai)对齊(qi)语言模型嗎(ma)?语言模型在(zai)ChatGPT模擬(ni)数据上(shang)的效果(guo)怎么樣(yang)?是(shi)否(fou)可以(yi) 用(yong)多个epoch训练语言模型?

最(zui)近(jin),lighting.ai的首(shou)席(xi)教(jiao)研員(yuan)、前(qian)威(wei)斯(si)康(kang)星(xing)大学麥(mai)迪(di)遜(xun)分(fen)校(xiao)統(tong)計(ji)学助(zhu)理(li)教授(shou)Sebastian發(fa)布(bu)了一篇(pian)博(bo)客(ke),介(jie)紹(shao)了一些(xie)解决上述(shu)疑问的研究成(cheng)果。

在特(te)定(ding)任(ren)務(wu)上微调语言模型

Goat模型是一个基(ji)于7B LLaMA微调的模型,在算(suan)術(shu)任务上的性(xing)能優(you)于GPT-4,在零(ling)样本(ben)設(she)置(zhi)中(zhong)還(hai)超(chao)越(yue)了75倍(bei)參(can)数量(liang)的540B PaLM

論(lun)文鏈(lian)接(jie):https://arxiv.org/pdf/2305.14201.pdf

Goat相(xiang)當(dang)于是一个專(zhuan)有用途(tu)的微调LLM,從(cong)直(zhi)覺(jiao)来看(kan)也肯(ken)定會(hui)优于GPT-4等(deng)通(tong)用聊(liao)天(tian)機(ji)器(qi)人。

不过对業(ye)务来說(shuo),這(zhe)篇论文也打(da)开了专用模型的大門(men),畢(bi)竟(jing)大部(bu)分公(gong)司(si)追(zhui)求(qiu)的都是在某(mou)一领域(yu)超越GPT-4即(ji)可。

雖(sui)然(ran)Goat并不是第(di)一个針(zhen)对特定任务進(jin)行(xing)微调的语言模型,还有大量的基于FLAN微调的工(gong)作(zuo),但(dan)Goat取(qu)得(de)成功(gong)的兩(liang)个要素(su)在于:

1. 在一个更(geng)好(hao)的基礎(chu)语言模型上,在目(mu)標(biao)任务(相对于通用預(yu)训练或(huo)指(zhi)令(ling)微调)上进行有監(jian)督(du)微调;

2. LLaMA对数字(zi)的分詞(ci)技(ji)术(將(jiang)每(mei)个数字單(dan)獨(du)分配(pei)一个token)

从實(shi)驗(yan)結(jie)果可知(zhi)二(er)者(zhe)的结合(he)是很重(zhong)要的,第一點(dian)是因(yin)為(wei)原(yuan)始(shi)7 B LLaMA基础型號(hao)不如GPT-4;第二点是因为对OPT,GPT-J等模型的微调结果不如Goat好,因为其(qi)他(ta)模型的数字分词技术不统一。

也有人有疑问,为什(shen)么不用Wolfram Alpha或常(chang)規(gui)计算器等工具(ju)进行算数计算,而(er)非(fei)要用语言模型算数?

对这篇论文来说,算术任务可以很容(rong)易(yi)地(di)合成数据集(ji),評(ping)估(gu)也更方(fang)便(bian),方便測(ce)試(shi)微调性能。

从Goat到(dao)Gorilla

另(ling)一个微调LLM以提(ti)高某一特定功能的例(li)子(zi)是Gorilla,一个专门用于生(sheng)成API调用的LLM。

论文链接:https://arxiv.org/abs/2305.15334

研究人员使(shi)用LLaMA-7 B基础模型,并对来自(zi)Torch Hub、TensorFlow Hub和HuggingFace的1645个API调用进行了微调,发現(xian)经过微调的Gorilla在API调用上优于其他未(wei)进行微调的LLM。

讓(rang)微调更高效

之(zhi)前提到的Goat模型使用低(di)秩(zhi)自適(shi)應(ying)(LoRA)技术以提高微调的效率,可以在单个24GB顯(xian)存(cun)GPU上对70億(yi)参数LLaMA模型进行微调。

论文链接:https://arxiv.org/abs/2305.14314

而最近发布的一个新技术QLoRA(量化LoRA)可以在单个 48GB显存的GPU上训练650亿参数的LLaMA模型,量化的4位(wei)参数设置下(xia),训练後(hou)得到的65B Guanaco模型保(bao)持(chi)了完(wan)整(zheng)的16位微调任务性能,并且僅(jin)在微调24小(xiao)時(shi)后就(jiu)達(da)到了ChatGPT性能的99.3%。

微调语言模型需要多少数据?

对于想(xiang)要定制(zhi)语言模型的从业者和研究人员来说,起(qi)步(bu)難(nan)题就是獲(huo)得足(zu)夠(gou)的数据进行微调。

最近发布的LIMA论文可能是一次(ci)微调上的突(tu)破(po),研究结果表(biao)明(ming),仅在1000个示(shi)例上进行微调的65 B LLaMA模型(以有监督的方式(shi))并不落(luo)后于ChatGPT / GPT3.5等更大的模型。

论文链接:https://arxiv.org/abs/2305.11206

研究人员发现,在57%的情(qing)況(kuang)下,GPT-4仍(reng)然更好,但他們(men)觀(guan)察(cha)到,在43%的情况下,LIMA优于或相当于GPT-4,已经非常强了;或者从另一个角(jiao)度(du)来看,大約(yue)有一半(ban)的情况,LIMA可以优于GPT-4的前身(shen)ChatGPT/GPT3.5(也叫(jiao)DaVinci 003)。

不过还有一个问题是,同(tong)样是有监督微调后的LLaMA模型,为什么LIMA的表现比Alpaca好这么多?

首先(xian),LIMA基于65B LLaMA模型,而原始Alpaca模型基于7B LLaMA基础模型。

为了公平(ping)对比,作者使用65B基础模型復(fu)刻(ke)了Alpaca的训练过程(cheng),即使用原始Alpaca項(xiang)目中描(miao)述的52000个样本进行训练。

所以可以得出(chu)结论,差(cha)異(yi)实際(ji)上来源于作者为LIMA精(jing)心(xin)策(ce)劃(hua)的训练集的質(zhi)量,使得LIMA可以擊(ji)敗(bai)在52倍数据上训练的相同的65B LLaMA基础模型。

不过还缺(que)少的一个基線(xian)对比和消(xiao)融(rong)研究是LIMA與(yu)使用RLHF而非有监督学习进行微调的65B LLaMA基础模型。

虽然LIMA的实验结果非常有前景(jing),不过有一篇论文的研究结果也需要註(zhu)意(yi),模仿(fang)学习得到的语言模型可能并沒(mei)有想象(xiang)中的那(na)么强。

论文链接:https://arxiv.org/abs/2305.15717

最近几个月,根(gen)据来自其他语言模型(如ChatGPT)的数据对LLM进行微调已成为常見(jian)做(zuo)法(fa),不过研究人员发现,众包(bao)工作者对这些所謂(wei)的模仿模型评價(jia)很高。但事(shi)实證(zheng)明,这些模仿模型只(zhi)傾(qing)向(xiang)于模仿上遊(you)语言模型的風(feng)格(ge),而非真(zhen)实性。

LIMA论文虽然没有使用模仿数据,而是使用精心设计的数据集,但仍然值(zhi)得强调的是,评估结果有时似(si)乎(hu)好得令人难以置信(xin),我(wo)们需要更好的基準(zhun)测试。

人类反馈强化学习的替(ti)代(dai)方案

最近几个月,有监督微调成了微调语言模型的新範(fan)式,比如LIMA论文也是使用有监督微调,但也存在其他方法来替代基于人类反馈的强化学习。

直接偏(pian)好优化(DPO,Direct Preference Optimization)也是一種(zhong)全(quan)新的、可替代强化学习的方法,使用接近策略(lve)优化(PPO)的人类反馈,用于ChatGPT等指令微调模型。

研究人员表明,在RLHF中拟合獎(jiang)勵(li)模型的交(jiao)叉(cha)熵(shang)損(sun)失(shi)可以直接用于微调语言模型,而且根据基准测试,使用DPO更有效,并且在回(hui)复质量方面(mian)通常也优于RLHF/PPO

多个epoch训练会怎么样?

微调模型需要一个预训练的基础模型,所以一个很自然的需求就是获得更好的基础模型。

对经典(dian)的机器学习模型、深度神(shen)经網(wang)絡(luo)以及(ji)最新的視(shi)觉Transformer模型训练数百(bai)个epoch是很常见的操(cao)作,不过大型语言模型通常指训练1个epoch,如果训练超过一个epoch会发生什么?

论文链接:https://arxiv.org/pdf/2305.13230.pdf

事实证明,互(hu)聯(lian)网上的高质量文本数据比想象中的更少,此(ci)外(wai),如果受(shou)版(ban)權(quan)保護(hu)的材(cai)料(liao)在未来被(bei)要求刪(shan)除(chu),可能会进一步縮(suo)小数据集的规模。

论文实验结果表明,要是因为数据量少就训练多个epoch,可能会导致(zhi)模型过拟合。

另一个有趣(qu)的结论是:dropout可以幫(bang)助減(jian)少过度拟合,但其他技术如权重衰(shuai)减卻(que)并不能。

不过现在常用的大型语言模型模型,如LLaMA,Gopher,Chinchilla,GPT-3和PaLM都没有使用dropout,因为会减慢(man)学习速(su)度。

三(san)个开放(fang)问题

1. 只重复训练像(xiang)LIMA这样的高质量数据怎么样?

从直觉上来看,这是有意義(yi)的,可能会对模型质量提升(sheng)有所帮助,不过壞(huai)消息(xi)是,从实际来看没有多大帮助。

研究人员对維(wei)基百科(ke)的数据进行了一项相关实验,相比C4来说他们認(ren)为维基百科是高质量的,不过事实证明,当维基百科数据在训练期(qi)間(jian)重复多个epoch后也发生了类似的退(tui)化现象。

2. 数据增(zeng)强有用吗?

目前有几种数据增强技术,包括(kuo)回譯(yi)、同义词替換(huan)、句(ju)子重排(pai)以及使用模型合成数据(例如GPT-4),但还没有数据增强对模型训练效果的全面分析(xi)。

3. 微调是什么样的?同样的规則(ze)适用吗?

根据作者的经验,训练3-5个小epoch是值得的,但目前也没有相关研究全面分析。

更高效的视觉Transformer

EfficientViT是一种全新的视觉Transformer,在速度和准確(que)性之间提供(gong)了良(liang)好的平衡(heng),其性能优于其他高效架(jia)構(gou),如MobileNetV3和MobileViT,同时速度更快(kuai)。

论文链接:https://arxiv.org/abs/2305.07027

研究人员使用級(ji)联組(zu)注意力(li),并为每个注意力頭(tou)提供完整特征(zheng)的不同分割(ge)(类似于组卷(juan)積(ji))来减少多头自注意力層(ceng)中的冗(rong)余(yu)。

之前的研究主(zhu)要关注最佳(jia)的数据集大小和模型参数量,最近研究人员提出了推(tui)斷(duan)计算最佳模型形(xing)狀(zhuang)的方法,例如寬(kuan)度和深度,实验中的视觉Transformer性能优于大两倍的模型。

论文链接:https://arxiv.org/abs/2305.13035

此外,如果使用相同的计算資(zi)源预算来训练較(jiao)小的计算优化模型,其推理成本不到较大模型的一半。

参考(kao)资料:

https://magazine.sebastianraschka.com/p/ahead-of-ai-9-llm-tuning-and-dataset返(fan)回搜(sou)狐(hu),查(zha)看更多

責(ze)任编辑:

发布于:山东枣庄市中区