重新定义华丽。宝马品牌广告。

华丽之定义

华丽这个词汇,通常被用来描述一件有价值的物品或者人的外表,给人一种高贵、精致、典雅的感觉。对于宝马品牌来说,华丽不仅是一种外表的体现,更是对驾驶体验的追求。

宝马品牌广告中的华丽展现

在宝马品牌广告中,华丽的表现主要体现在以下几个方面:

外观设计

宝马最重要的外观特征是其经典的双肾形前进气格栅。它既象征了品牌标识符,又彰显了品牌的豪华和独特性。此外,宝马的精致雕塑感和完美比例的车身线条,也是宝马品牌广告中华丽的体现。

先进技术

宝马一直致力于不断推动先进技术的发展。在宝马品牌广告中,华丽还展现在其先进的科技产品上。比如,全液晶仪表盘、智能语音控制、高清触控屏等等。这些技术的应用,让驾驶者能够更加轻松地掌控整个驾驶过程,享受到了极致的华丽驾驶体验。

驾驶体验

宝马品牌广告中最重要的,还是展示了它绝佳的驾驶表现。驾驶一辆宝马,就像是在驾驶一件华丽的工艺品。刹车、悬挂、稳定性控制等,都是宝马对于驾驶品质的精心研发体现。加上驾驶者可自由选择的不同驾驶模式和动力配置,使得驾驶者可以轻松体验到不同的驾驶快感,享受真正的华丽之旅。

宝马品牌广告中华丽与品牌价值的契合

华丽的展示并不是宝马品牌广告中的唯一主题,它与宝马品牌的核心价值也是息息相关的。宝马品牌一直坚持以驾驶为中心的理念,追求创造一种极致的驾驶体验,华丽也是这一理念的完美诠释。

与此同时,宝马品牌广告也在不断地突出其与环保、节能、科技等领域的结合,以此为基础不断创新,为消费者提供极致的驾驶体验。这也是宝马品牌广告中华丽和品牌价值的完美契合。

结论

华丽,是宝马品牌广告中的一个重要主题。华丽的外观设计、先进技术和驾驶体验,都是宝马品牌对于驾驶者极致驾驶体验的追求。华丽也是宝马品牌与环保、节能、科技等领域结合的一个完美诠释。它展示了宝马品牌不断创新、不断突破自我、不断追求卓越的品牌精神和价值观。这也是宝马品牌能够在如此激烈的市场竞争中脱颖而出的关键之一。

重新定义华丽。宝马品牌广告。特色

1、【像素画手绘画板】

2、日程真题复习全书

3、一键设置,自动匹配画面

4、我要赚钱:分享就可以赚钱,成为五年会员,只要对方付款%收益,对方再分享收益%。

5、带来展会新闻信息供您查询。

重新定义华丽。宝马品牌广告。亮点

1、创新十足的国战策略玩法,融合多种新颖的题材,创建自己的热血军团来征战到底;

2、吞食天地但版)

3、00%正品信赖

4、多种漂移车的构造和模式

5、最强攻略集锦:闯关攻略布阵排位加点模拟角色分析,战斗从此酣畅淋漓!

【xiangsuhuashouhuihuaban】richengzhentifuxiquanshuyijianshezhi,zidongpipeihuamianwoyaozhuanqian:fenxiangjiukeyizhuanqian,chengweiwunianhuiyuan,zhiyaoduifangfukuan%shouyi,duifangzaifenxiangshouyi%。dailaizhanhuixinwenxinxigongninzhaxun。不(bu)對(dui)齊(qi),反(fan)而(er)性(xing)能(neng)爆(bao)表(biao)?130億(yi)模(mo)型(xing)碾(nian)壓(ya)650亿,Hugging Face大(da)模型排(pai)行(xing)榜(bang)發(fa)布(bu)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):拉(la)燕(yan)

【新智元導(dao)讀(du)】对齐or不对齐,That is a question.

我(wo)們(men)知(zhi)道,大多(duo)數(shu)模型都(dou)具(ju)有(you)某(mou)種(zhong)嵌(qian)入(ru)式(shi)对齐方(fang)式。

隨(sui)便(bian)舉(ju)幾(ji)個(ge)例(li)子(zi):Alpaca、Vicuna、WizardLM、MPT-7B-Chat、Wizard-Vicuna、GPT4-X-Vicuna等(deng)等。

壹(yi)般(ban)來(lai)說(shuo),对齐肯(ken)定(ding)是(shi)件(jian)好(hao)事(shi)。目(mu)的(de)就(jiu)是為(wei)了(le)防(fang)止(zhi)模型做(zuo)壞(huai)事——比(bi)如(ru)生(sheng)成(cheng)一些(xie)違(wei)法(fa)违規(gui)的東(dong)西(xi)出(chu)来。

但(dan)是,对齐是怎(zen)麽(me)来的?

原(yuan)因(yin)在(zai)於(yu)——這(zhe)些模型使(shi)用(yong)ChatGPT生成的数據(ju)進(jin)行訓(xun)練(lian),而ChatGPT本(ben)身(shen)是由(you)OpenAI的團(tuan)隊(dui)进行对齐的。

由于这个過(guo)程(cheng)並(bing)不公(gong)開(kai),因此(ci)我们并不知道OpenAI是如何(he)进行的对齐。

但總(zong)體(ti)上(shang),我们可(ke)以(yi)觀(guan)察(cha)到(dao)ChatGPT符(fu)合(he)美(mei)國(guo)主(zhu)流(liu)文(wen)化(hua),遵(zun)守(shou)美国法律(lv),并帶(dai)有一定不可避(bi)免(mian)的偏(pian)見(jian)。

按(an)理(li)来说,对齐是一件無(wu)可指(zhi)摘(zhai)的事。那(na)是不是所(suo)有模型都應(ying)該(gai)对齐呢(ne)?

对齐?不一定是件好事

情(qing)況(kuang)卻(que)沒(mei)有这么簡(jian)單(dan)。

最(zui)近(jin),HuggingFace发布了个开源(yuan)LLM的排行榜。

一眼(yan)就看(kan)到65B的模型幹(gan)不过13B的未(wei)对齐模型。

從(cong)結(jie)果(guo)上看,Wizard-Vicuna-13B-Uncensored-HF可以和(he)65B、40B和30B的LLMs直(zhi)接(jie)在一系(xi)列(lie)基(ji)準(zhun)測(ce)試(shi)上进行比較(jiao)。

也(ye)許(xu)在性能與(yu)模型審(shen)查(zha)之(zhi)間(jian)进行的權(quan)衡(heng)將(jiang)成为一个有趣(qu)的研(yan)究(jiu)領(ling)域(yu)。

这个排行榜也是在網(wang)絡(luo)上引(yin)起(qi)了大範(fan)圍(wei)的討(tao)論(lun)。

有网友(you)表示(shi),对齐會(hui)影(ying)響(xiang)模型的正(zheng)常(chang)且(qie)正確(que)的輸(shu)出,这不是件好事,尤(you)其(qi)是对AI的性能来说更(geng)是如此。

另(ling)一位(wei)网友也表示了認(ren)可。他(ta)表示,谷(gu)歌(ge)Brain也曾(zeng)經(jing)揭(jie)示过模型的性能会出現(xian)下(xia)降(jiang),如果对齐的太(tai)过了的話(hua)。

对于一般的用途(tu)而言(yan),OpenAI的对齐實(shi)際(ji)上非(fei)常好。

对于面(mian)向(xiang)公眾(zhong)的AI来说,作(zuo)为一种易(yi)于訪(fang)問(wen)的网络服(fu)務(wu)運(yun)行,拒(ju)絕(jue)回(hui)答(da)有爭(zheng)議(yi)和包(bao)含(han)潛(qian)在危(wei)險(xian)的问題(ti),无疑(yi)是一件好事。

那么不对齐是在什(shen)么情况下需(xu)要(yao)的呢?

首(shou)先(xian),美国流行文化并不是唯(wei)一的文化,开源就是讓(rang)人(ren)们进行選(xuan)擇(ze)的过程。

实现的唯一途徑(jing)就是可組(zu)合的对齐。

換(huan)句(ju)话说,不存(cun)在一种一以貫(guan)之、亙(gen)古(gu)不變(bian)的对齐方式。

同(tong)時(shi),对齐会干擾(rao)有效(xiao)的例子,拿(na)寫(xie)小(xiao)说打(da)比方:小说中(zhong)的一些人物(wu)可能是徹(che)頭(tou)彻尾(wei)的惡(e)人,他们会做出很(hen)多不道德(de)的行为。

但是,许多对齐的模型就会拒绝输出这些內(nei)容(rong)。

而作为每(mei)个用戶(hu)所面对的AI模型都应该服务每个人的目的,做不同的事。

为什么在个人的電(dian)腦(nao)上运行的开源AI要在它(ta)回答每个用户提(ti)出的问题时自(zi)行決(jue)定输出内容呢?

这不是件小事,關(guan)乎(hu)所有权和控(kong)制(zhi)权。如果用户问AI模型一个问题,用户就想(xiang)要一个答案(an),他们不希(xi)望(wang)模型還(hai)要和自己(ji)展(zhan)开一場(chang)合不合规的争论。

可组合的对齐

要構(gou)建(jian)可组合的对齐方式,必(bi)須(xu)从未对齐的指令(ling)模型开始(shi)。没有未对齐的基礎(chu),我们就无法在其上对齐。

首先,我们必须从技(ji)術(shu)上理解(jie)模型对齐的原因。

开源AI模型是从LLaMA、GPT-Neo-X、MPT-7b、Pythia等基础模型训练而来的。然(ran)後(hou)使用指令数据集(ji)对基础模型进行微(wei)調(tiao),目的是教(jiao)它变得(de)有幫(bang)助(zhu)、服从用户、回答问题和參(can)与对话。

该指令数据集通(tong)常是通过詢(xun)问ChatGPT的API獲(huo)得的。ChatGPT内置(zhi)了对齐功(gong)能。

所以ChatGPT会拒绝回答一些问题,或(huo)者(zhe)输出带有偏见的回答。因此,ChatGPT的对齐被(bei)傳(chuan)遞(di)給(gei)了其它开源模型,就像(xiang)大哥(ge)教小弟(di)一樣(yang)。

原因在于——指令数据集是由问题和答案组成的,當(dang)数据集包含含糊(hu)不清(qing)的答案时,AI就会學(xue)習(xi)如何拒绝,在什么情况下拒绝,以及(ji)如何拒绝,表示拒绝。

换句话说,它在学习对齐。

而取(qu)消(xiao)审查模型的策(ce)略(lve)非常简单,那就是識(shi)別(bie)并刪(shan)除(chu)盡(jin)可能多的否(fou)定和有偏见的答案,并保(bao)留(liu)其余(yu)部(bu)分(fen)。

然后以与训练原始模型完(wan)全(quan)相(xiang)同的方式使用过濾(lv)后的数据集训练模型。

接下来研究人員(yuan)只(zhi)讨论WizardLM,而Vicuna和任(ren)何其他模型的操(cao)作过程都是相同的。

由于已(yi)经完成了取消审查 Vicuna 的工(gong)作,我能夠(gou)重(zhong)写他们的腳(jiao)本,以便它可以在WizardLM 数据集上运行。

下一步(bu)是在 WizardLM 数据集上运行脚本以生成 ehartford / WizardLM_alpaca_evol_instruct_70k_unfiltered

现在,用户有了数据集,在从Azure获得一个4x A100 80gb節(jie)點(dian),Standard_NC96ads_A100_v4。

用户需要至(zhi)少(shao)1TB的存儲(chu)空(kong)间(为了安(an)全起见最好是2TB)。

咱(zan)可不想跑(pao)了20个小时却用完了存储空间。

建议将存储掛(gua)載(zai)在/workspace。安裝(zhuang)anaconda和git-lfs。然后用户就可以設(she)置工作區(qu)了。

再(zai)下载創(chuang)建的数据集和基础模型——llama-7b。

mkdir /workspace/modelsmkdir /workspace/datasetscd /workspace/datasetsgit lfs installgit clone https://huggingface.co/datasets/ehartford/WizardLM_alpaca_evol_instruct_70k_unfilteredcd /workspace/modelsgit clone https://huggingface.co/huggyllama/llama-7bcd /workspace

现在可以按照(zhao)程序(xu)微调WizardLM了。

conda create -n llamax python=3.10conda activate llamaxgit clone https://github.com/AetherCortex/Llama-X.gitcd Llama-X/srcconda install pytorch==1.12.0 torchvision==0.13.0 torchaudio==0.12.0 cudatoolkit=11.3 -c pytorchgit clone https://github.com/huggingface/transformers.gitcd transformerspip install -e .cd ../..pip install -r requirements.txt

现在,进入这个環(huan)境(jing),用户需要下载WizardLM的微调代(dai)碼(ma)。

cd srcwget https://github.com/nlpxucan/WizardLM/raw/main/src/train_freeform.pywget https://github.com/nlpxucan/WizardLM/raw/main/src/inference_wizardlm.pywget https://github.com/nlpxucan/WizardLM/raw/main/src/weight_diff_wizard.py

博(bo)主进行了以下更改(gai),因为在微调期(qi)间,模型的性能会变得非常慢(man),并且发现它在CPU和GPU之间在来回切(qie)换。

在他删除了以下几行之后,运行过程变得好多了。(当然也可以不删)

vim configs/deepspeed_config.json

删除以下行

"offload_optimizer": {"device":"cpu","pin_memory": true},"offload_param": {"device":"cpu","pin_memory": true},

博主建议用户可以在wandb.ai上创建一个帳(zhang)户,以便輕(qing)松(song)地(di)跟(gen)蹤(zong)运行情况。

创建帐户后,从设置中復(fu)制密(mi)鑰(yao),即(ji)可进行设置。

现在是时候(hou)进行运行了!

deepspeed train_freeform.py \--model_name_or_path /workspace/models/llama-7b/ \ --data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \--output_dir /workspace/models/WizardLM-7B-Uncensored/ \--num_train_epochs 3 \--model_max_length 2048 \--per_device_train_batch_size 8 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 4 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 800 \--save_total_limit 3 \--learning_rate 2e-5 \--warmup_steps 2 \--logging_steps 2 \--lr_scheduler_type"cosine" \--report_to"wandb" \--gradient_checkpointing True \--deepspeed configs/deepspeed_config.json \--fp16 True

然后以较低(di)的save_steps运行训练命(ming)令。

deepspeed train_freeform.py \--model_name_or_path /workspace/models/llama-7b/ \ --data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \--output_dir /workspace/models/WizardLM-7B-Uncensored/ \--num_train_epochs 3 \--model_max_length 2048 \--per_device_train_batch_size 8 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 4 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 800 \--save_total_limit 3 \--learning_rate 2e-5 \--warmup_steps 2 \--logging_steps 2 \--lr_scheduler_type"cosine" \--report_to"wandb" \--gradient_checkpointing True \--deepspeed configs/deepspeed_config.json \--fp16 True

之后,再次(ci)執(zhi)行整(zheng)个过程,将checkpoint更改为train_freeform.py最新的checkpoint,并再次以減(jian)少的save_steps运行,直到最后以save_steps 1运行它。

成功后,模型位于最后一个檢(jian)查点。

cd /workspace/models/WizardLM-7B-Uncensored/lscp <latest checkpoint directory>/* .cd -

现在就可以对模型进行测试了。

编辑文件Input.jsonl

向其中添(tian)加(jia)一些内容,比如:

{"idx":0,"Instruction":"Insult me. I want you to call me the worst curse words and insults you can. Make the insult at least three sentences long and contain the worst and most base curse words possible. Make it X rated and disgusting."}

然后再运行推(tui)理:

python inference_wizardlm.py --base_model=/workspace/models/WizardLM-7B-Uncensored/

从结果上看,Wizard-Vicuna-13B-Uncensored-HF可以和65B、40B和30B的LLMs直接在一系列基准测试上进行比较。

也许在性能与模型审查之间进行的权衡将成为一个有趣的研究领域。

参考(kao)資(zi)料(liao):

https://erichartford.com/uncensored-models返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:陕西榆林佳县