最有创意的一句广告语

最有创意的广告语:让你的美丽从头开始

在当今这个竞争激烈的时代,每个人都想要成为最好的自己。然而,美丽的头发却是很多人无法完美掌握的领域。我们的广告语是“让你的美丽从头开始”,意味着我们提供的头发护理产品可以帮助您的头发变得更加健康、更加美丽。

我们的产品线包括洗发水、护发素、发膜、发油等。我们采用的是天然植物提取物,对头发起到温和的护理作用,无任何刺激性成分,让您的头发恢复自然光泽。我们的护发产品适合所有发质,帮助您解决头发的各种问题。

为什么选择我们的头发护理产品?

首先,我们的产品是由经验丰富的专业人士开发的,包括发型师和美发专家。他们了解头发的生长周期、发质变化以及头发受损的原因。我们的产品不仅可以修复头发,还可以预防头发分叉、断裂和脱落。

头发护理

其次,我们的头发护理产品是100%纯天然的,不含任何有害化学成分。我们采用植物提取物,如茶树油、薰衣草油、橄榄油等,这些成分营养丰富,可以为头发提供充足的营养,增强头发的韧性,改善头皮健康。

如何正确使用我们的头发护理产品?

使用我们的头发护理产品非常简单,只需按照以下步骤操作:

1. 用温水湿润头发,倒适量洗发水于手中,轻柔按摩头发至起泡,然后用清水冲洗干净。

洗发水

2. 取适量护发素,均匀涂抹于已洗净的头发上,适当按摩,停留3-5分钟后用清水冲洗干净。

护发素

3. 如果您的头发需要更深层次的保养,可以使用我们的发膜或发油。将适量发膜或发油均匀涂抹于头发上,停留15-20分钟,然后用清水冲洗干净。

发膜

无论您的头发处于什么状态,我们的头发护理产品都可以帮助您恢复头发的健康和美丽。还有什么比拥有一头美丽健康的头发更重要的呢?赶快咨询我们的客服,让您的美丽从头开始吧!

结论

我们的头发护理产品采用天然植物提取物,非常温和,适合所有发质。使用我们的产品可以帮助您恢复头发的健康和美丽。不要犹豫,赶快咨询我们的客服,让您的美丽从头开始吧!

最有创意的一句广告语特色

1、丰富多样的场景带来更好的游戏体验。

2、超多酷炫无比的黄金级装备,自由的强化转隔壁,更高的成功几率能够让你节约更多材料

3、点击操控,制作披萨的流程看起来十分简单,细节必须到位。

4、休闲治愈温馨的模拟经营让玩家沉浸游戏之中

5、精细像素酷炫光影,视觉冲击围观都嗨;

最有创意的一句广告语亮点

1、高清细腻的游戏场景,充实你的视觉体感,享受沉浸式体验

2、具体操作都很简单,点击即可完成;

3、游戏非常休闲的点击类型操作风格十分容易上手体验极佳乐趣;

4、不同的合成路线打造专属游戏乐趣,更丰富的勇者挑战,自由体验。

5、大型的沙盒模拟世界,发现奇幻的外星生物,探索生物河流开始冒险;

fengfuduoyangdechangjingdailaigenghaodeyouxitiyan。chaoduokuxuanwubidehuangjinjizhuangbei,ziyoudeqianghuazhuangebi,genggaodechenggongjilvnenggourangnijieyuegengduocailiaodianjicaokong,zhizuopisadeliuchengkanqilaishifenjiandan,xijiebixudaowei。xiuxianzhiyuwenxindemonijingyingrangwanjiachenjinyouxizhizhongjingxixiangsukuxuanguangying,shijiaochongjiweiguandouhai;谷(gu)歌(ge)沒(mei)開(kai)源(yuan)的(de)PaLM,網(wang)友(you)給(gei)开源了(le)!千(qian)億(yi)參(can)數(shu)微(wei)縮(suo)版(ban):最(zui)大(da)只(zhi)有(you)10亿,8k上(shang)下(xia)文(wen)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):桃(tao)子(zi) 好(hao)困(kun)

【新智元導(dao)讀(du)】萬(wan)万没想(xiang)到(dao),谷歌PaLM竟(jing)被(bei)开源了,但(dan)是(shi)微缩版的。

谷歌未(wei)开源的PaLM,网友竟给开源了。

昨(zuo)天(tian),壹(yi)位(wei)开發(fa)者(zhe)在(zai)GitHub上开源了三(san)種(zhong)微缩版的PaLM模(mo)型(xing):参数分(fen)別(bie)為(wei)1.5亿(PalM-150m),4.1亿(PalM-410m)和(he)10亿(PalM-1b)。

項(xiang)目(mu)地(di)址(zhi):https://github.com/conceptofmind/PaLM

這(zhe)三种模型在谷歌C4数據(ju)集(ji)進(jin)行(xing)了訓(xun)練(lian),上下文長(chang)度(du)为8k。未來(lai),還(hai)有20亿参数的模型正(zheng)在训练中(zhong)。

谷歌C4数据集

开源PaLM

使(shi)用(yong)4.1亿参数模型生(sheng)成(cheng)的示(shi)例(li):

My dog is very cute, but not very good at socializing with other dogs. The dog loves all new people and he likes to hang out with other dogs. I do need to take him to the park with other dogs. He does have some bad puppy breath, but it is only when he runs off in a direction he doesn't want to go. currently my dog is being very naughty. He would like to say hi in the park, but would rather take great care of himself for a while. He also has bad breath. I am going to have to get him some oral braces. It's been 3 months. The dog has some biting pains around his mouth. The dog is very timid and scared. The dog gets aggressive towards people. The dog is very playful and they are a little spoiled. I am not sure if it's a dog thing or if he is spoiled. He loves his toys and just wants to play. He plays with his toys all the time and even goes on walks. He is a little picky, not very good with other dogs. The dog is just a little puppy that goes to the park. He is a super friendly dog. He has not had a bad mouth or bad breath

我(wo)的狗(gou)很(hen)可(ke)愛(ai),但是不(bu)善(shan)於(yu)和其(qi)他(ta)狗交(jiao)際(ji)。这只狗喜(xi)歡(huan)所(suo)有新来的人(ren),他喜欢和其他的狗一起(qi)玩(wan)。我確(que)實(shi)需(xu)要(yao)帶(dai)他和其他狗一起去(qu)公(gong)園(yuan)。他确实有點(dian)小(xiao)狗的口(kou)臭(chou),但只有當(dang)他往(wang)不想去的方(fang)向(xiang)跑(pao)的時(shi)候(hou)。現(xian)在我的狗很淘(tao)氣(qi)。他想在公园裏(li)打(da)個(ge)招(zhao)呼(hu),但寧(ning)願(yuan)好好照(zhao)顧(gu)自(zi)己(ji)一段(duan)时間(jian)。他还有口臭。我得(de)给他買(mai)个口腔(qiang)矯(jiao)正器(qi),已(yi)經(jing)過(guo)去三个月(yue)了。这條(tiao)狗嘴(zui)邊(bian)有些(xie)咬(yao)痕(hen)疼(teng)痛(tong)。这只狗非(fei)常(chang)膽(dan)小和害(hai)怕(pa)。这只狗對(dui)人有攻(gong)擊(ji)性(xing)。这条狗非常頑(wan)皮(pi),他們(men)有点被寵(chong)壞(huai)了。我不确定(ding)是狗的問(wen)題(ti)还是他被宠坏了。他喜欢他的玩具(ju),只是想玩。他總(zong)是玩他的玩具,甚(shen)至(zhi)去散(san)步(bu)。他有点挑(tiao)剔(ti),不太(tai)會(hui)和其他狗相(xiang)處(chu)。那(na)只狗只是一只去公园的小狗。它(ta)是一只超(chao)級(ji)友好的狗。他没有口臭问题了。

雖(sui)然(ran)参数确实有点少(shao),但这生成的效(xiao)果(guo)还是有些一言(yan)難(nan)盡(jin)……

这些模型兼(jian)容(rong)許(xu)多(duo)Lucidrain的流(liu)行倉(cang)庫(ku),例如(ru)Toolformer-pytorch、PalM-rlhf-pytorch和PalM-pytorch。

最新开源的三种模型都(dou)是基(ji)線(xian)模型,並(bing)將(jiang)在更(geng)大規(gui)模数据集上进行训练。

所有的模型将在FLAN上进一步調(tiao)整(zheng)指(zhi)令(ling),以(yi)提(ti)供(gong)flan-PaLM模型。

开源的PaLM模型通(tong)过Flash Attention 、 Xpos Rotary Embeddings 进行训练,從(cong)而(er)实现了更好的长度外(wai)推(tui),并使用多查(zha)詢(xun)單(dan)鍵(jian)值(zhi)註(zhu)意(yi)力(li)機(ji)制(zhi)进行更高(gao)效的解(jie)碼(ma)。

在優(you)化(hua)算(suan)法(fa)方面(mian),采(cai)用的則(ze)是解耦(ou)權(quan)重(zhong)衰(shuai)減(jian)Adam W,但也(ye)可以選(xuan)擇(ze)使用Mitchell Wortsman的Stable Adam W。

目前(qian),模型已经上傳(chuan)到Torch hub,文件(jian)也存(cun)儲(chu)在Huggingface hub中。

如果模型無(wu)法从Torch hub正确下載(zai),請(qing)務(wu)必(bi)清(qing)除(chu) .cache/torch/hub/ 中的檢(jian)查点和模型文件夾(jia)。如果问题仍(reng)未解決(jue),那麽(me)妳(ni)可以从Huggingface的仓库下载文件。目前,Huggingface 的整合(he)工(gong)作(zuo)正在进行中。

所有的训练数据都已经用GPTNEOX標(biao)記(ji)器进行了預(yu)标记,并且(qie)序(xu)列(lie)长度被截(jie)止(zhi)到8192。这将有助(zhu)于節(jie)省(sheng)预处理(li)数据的大量(liang)成本(ben)。

这些数据集已经以parquet格(ge)式(shi)存储在Huggingface上,你可以在这里找(zhao)到各(ge)个数据塊(kuai):C4 Chunk 1,C4 Chunk 2,C4 Chunk 3,C4 Chunk 4,以及(ji)C4 Chunk 5。

在分布(bu)式训练腳(jiao)本中还有另(ling)一个选项,不使用提供的预标记C4数据集,而是加(jia)载和处理另一个数据集,如 openwebtext。

安(an)裝(zhuang)

在嘗(chang)試(shi)運(yun)行模型之(zhi)前,需要先(xian)进行一波(bo)安装。

gitclone https://github.com/conceptofmind/PaLM.git cdPaLM/ pip3install -r requirements.txt

使用

你可以通过使用Torch hub加载预训练的模型进行額(e)外的训练或(huo)微调:

model= torch.hub.load("conceptofmind/PaLM","palm_410m_8k_v0").cuda

另外,你还可以通下面的方式直(zhi)接(jie)加载PyTorch模型检查点:

frompalm_rlhf_pytorch importPaLMmodel = PaLM( num_tokens= 50304, dim= 1024, depth= 24, dim_head= 128, heads= 8, flash_attn= True, qk_rmsnorm = False, ).cuda

model.load( '/palm_410m_8k_v0.pt')

要使用模型生成文本,可以使用命(ming)令行:

prompt-用于生成文本的提示。

seq _ len-生成文本的序列长度,默(mo)認(ren)值为256。

temperature-采樣(yang)溫(wen)度,默认为0.8

filter_thres-用于采样的过濾(lv)器閾(yu)值。默认值为0.9。

model-用于生成的模型。有三种不同(tong)的参数(150m,410m,1b):palm_150m_8k_v0,palm_410m_8k_v0,palm_1b_8k_v0。

python3inference.py" Mydogisverycute" --seq_len256 --temperature0 .8--filter_thres0 .9--model" palm_410m_8k_v0"

为了提高性能(neng),推理使用torch.compile、 Flash Attention和Hidet。

如果你想通过添(tian)加流处理或其他功(gong)能来擴(kuo)展(zhan)生成, 作者提供了一个通用的推理脚本「inference.py」。

训练

这幾(ji)个「开源PalM」模型是在64个A100(80GB)GPU上完(wan)成训练的。

为了方便(bian)模型的训练,作者还提供了一个分布式训练脚本train_distributed.py。

你可以自由(you)改(gai)變(bian)模型層(ceng)和超参数配(pei)置(zhi)以滿(man)足(zu)硬(ying)件的要求(qiu),并且还可以加载模型的权重并改变训练脚本来微调模型。

最後(hou),作者表(biao)示会在将来加入(ru)一个具體(ti)的微调脚本,并对LoRA进行探(tan)索(suo)。

数据

可以通过运行build_dataset.py脚本,以類(lei)似(si)于训练期(qi)间使用的C4数据集的方式预处理不同的数据集。这将对数据进行预标记,将数据分成指定序列长度的块,并上传到Huggingface hub。

比(bi)如:

python3build_dataset.py --seed 42--seq_len 8192--hf_account"your_hf_account"--tokenizer"EleutherAI/gpt-neox-20b"--dataset_name"EleutherAI/the_pile_deduplicated"

PaLM 2要来了

2022年(nian)4月,谷歌首(shou)次(ci)官(guan)宣(xuan)了5400亿参数的PaLM。與(yu)其他LLM一样,PaLM能執(zhi)行各种文本生成和编辑任(ren)务。

PaLM是谷歌首次大规模使用Pathways系(xi)統(tong)将训练扩展到6144块芯(xin)片(pian),这是迄(qi)今(jin)为止用于训练的基于TPU的最大系统配置。

它的理解能力拔(ba)群(qun),不僅(jin)連(lian)笑(xiao)話(hua)都能看(kan)懂(dong),还能给看不懂的你解釋(shi)笑点在哪(na)。

就(jiu)在3月中,谷歌首次开放(fang)其PaLM大型語(yu)言模型API。

这意味(wei)著(zhe),人们可以用它来完成总結(jie)文本、编寫(xie)代(dai)码等(deng)任务,甚至是将PaLM训练成一个像(xiang)ChatGPT一样的对话聊(liao)天机器人。

在即(ji)将召(zhao)开的谷歌年度I/O大会上,劈(pi)柴(chai)将公布公司(si)在AI領(ling)域(yu)的最新发展。

据稱(cheng),最新、最先进的大型语言模型PaLM 2即将推出(chu)。

PaLM 2包(bao)含(han)100多种语言,并一直在內(nei)部(bu)代號(hao)「统一语言模型」(Unified Language Model)下运行。它还进行了廣(guang)泛(fan)的编码和数學(xue)測(ce)试以及創(chuang)意写作。

上个月,谷歌表示,其醫(yi)学LLM「Med-PalM2」,可以回(hui)答(da)医学考(kao)试的问题,在「專(zhuan)家(jia)医生水(shui)平(ping)」,準(zhun)确率(lv)为85% 。

此(ci)外,谷歌还将发布大模型加持(chi)下的聊天机器人Bard,以及搜(sou)索的生成式体驗(yan)。

最新AI发布能否(fou)讓(rang)谷歌挺(ting)直腰(yao)板(ban),还得拭(shi)目以待(dai)。

参考資(zi)料(liao):

https://github.com/conceptofmind/PaLM返(fan)回搜狐(hu),查看更多

責(ze)任编辑:

发布于:四川阿坝松潘县