乡村爱情第1部

乡村爱情第一部:重温90年代农村生活

《乡村爱情》自播出以来,深受观众的喜爱。作为一部以农村生活为背景的电视剧,它不仅展现了90年代农村的风貌,还诠释了农村人物的真实情感。以下将从剧情、场景和人物三个方面解析这部经典的电视剧。

剧情:真实、感人、充满笑料

《乡村爱情》的剧情真实感人,充满笑料。剧情主要讲述了五个农村青年追求爱情的故事,其中有痴情的大龄男青年、纯真的小女孩、狡猾的小姨子等,情节跌宕起伏,让观众爱不释手。

除了爱情故事,剧情中也涉及到很多现实的问题。比如,乡村医疗的缺失、城乡差距的不断拉大,以及家庭贫富的悬殊等,这些问题都是农村人民日常生活中的困扰。通过剧情的呈现,让观众看到了农村生活的真实面貌。

场景:还原真实农村景象

《乡村爱情》的场景是其成功的重要因素之一。剧组在拍摄时,专门选址到真实的农村进行拍摄,让观众感受到了农村的真实气息。剧中的茅草房、土桥、稻田等场景都是90年代农村的真实写照。

同时,剧组也在场景设计上下足了功夫。比如,角色的服装与农村习俗相符合,各色小摊贩和小吃也增强了场景的真实感。这些细节的处理让观众看到了真正的农村。

人物:真实、鲜明、可爱

《乡村爱情》的人物形象鲜明、可爱。每个角色都有自己的特色和性格,每个故事都有自己的倾向和情感。这些人物形象的刻画让观众感受到了农村人物的真实情感。

例如,大头儿子的单纯、二喜的机智、郝淑雯的狡猾等,都是农村人物的典型形象。这些形象的刻画不仅让观众看到了农村人物的真实情感,也让观众感受到了农村人物的可爱之处。

总结:一部经典的乡村电视剧

《乡村爱情》是一部经典的乡村电视剧,它通过剧情、场景和人物三个方面的呈现,展现了90年代农村的风貌和人物。它将真实、感人、充满笑料的情节,融入到现实问题的解决中,让观众看到了农村生活的真实面貌。无论是剧情、场景还是人物,都展现了农村人物的真实情感和可爱之处。它不仅是一部电视剧,更是一部回忆、一部乡愁,让人们重温了90年代的农村生活。

乡村爱情第1部特色

1、其他:闹钟提醒课堂模式手表电话卡话费流量查询等。

2、支持信用卡:拓宽客户服务群体,支持客户通过信用卡进行支付,缓解客户资金压力。

3、快速登录:一种方便快捷的登录方式,输入手机号即可快速登录;

4、神鬼传奇折扣平台

5、仙界之中到处都是奇遇,在探索时随机触发到宝藏就可以让你一夜暴富,神器法宝满屏获取。

乡村爱情第1部亮点

1、轻解谜题,简单易用的操作,极度休闲减压的游戏模式。

2、一键进行照片的批量修改,操作起来非常的简单。

3、每首歌都是截取的高潮部分,相信一定都听过,就是一时不知道是啥歌。

4、这里有超多的业主真实案例分享,不仅可以借鉴他们的装修,而且可以学到一些知识。

5、超赞视觉感受,使你全方位大饱眼福,令你看的怦然心动!

qita:naozhongtixingketangmoshishoubiaodianhuakahuafeiliuliangzhaxundeng。zhichixinyongka:tuokuankehufuwuqunti,zhichikehutongguoxinyongkajinxingzhifu,huanjiekehuzijinyali。kuaisudenglu:yizhongfangbiankuaijiededenglufangshi,shurushoujihaojikekuaisudenglu;shenguichuanqizhekoupingtaixianjiezhizhongdaochudoushiqiyu,zaitansuoshisuijichufadaobaozangjiukeyirangniyiyebaofu,shenqifabaomanpinghuoqu。單(dan)個(ge)GPU就(jiu)能(neng)跑(pao)!UC伯(bo)克(ke)利(li)領(ling)頭(tou),130億(yi)參(can)數(shu)「小(xiao)羊(yang)駝(tuo)」權(quan)重(zhong)公(gong)布(bu)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):好(hao)困(kun)

【新智元導(dao)讀(du)】剛(gang)刚,UC伯克利、CMU、斯(si)坦(tan)福(fu)等(deng),聯(lian)手(shou)發(fa)布了(le)最(zui)新開(kai)源(yuan)模(mo)型(xing)駱(luo)馬(ma)(Vicuna)的(de)权重。

3月(yue)31日(ri),UC伯克利联手CMU、斯坦福、UCSD和(he)MBZUAI,推(tui)出(chu)了130亿参数的Vicuna,俗(su)稱(cheng)「小羊驼」(骆马),僅(jin)需(xu)300美(mei)元就能實(shi)現(xian)ChatGPT 90%的性(xing)能。

今(jin)天(tian),團(tuan)隊(dui)正(zheng)式(shi)发布了Vicuna的权重——只(zhi)需单个GPU就能跑!

項(xiang)目(mu)地(di)址(zhi):https://github.com/lm-sys/FastChat/#fine-tuning

130亿参数,90%匹(pi)敵(di)ChatGPT

Vicuna是(shi)通(tong)過(guo)在(zai)ShareGPT收(shou)集(ji)的用(yong)戶(hu)共(gong)享(xiang)對(dui)話(hua)上(shang)对LLaMA進(jin)行(xing)微(wei)調(tiao)訓(xun)練(lian)而(er)來(lai),训练成(cheng)本(ben)近(jin)300美元。

研(yan)究(jiu)人(ren)員(yuan)設(she)計(ji)了8个問(wen)題(ti)類(lei)別(bie),包(bao)括(kuo)数學(xue)、寫(xie)作(zuo)、编碼(ma),对Vicuna-13B與(yu)其(qi)他(ta)四(si)个模型进行了性能測(ce)試(shi)。

测试过程(cheng)使(shi)用GPT-4作為(wei)評(ping)判(pan)標(biao)準(zhun),結(jie)果(guo)顯(xian)示(shi)Vicuna-13B在超(chao)过90%的情(qing)況(kuang)下(xia)实现了与ChatGPT和Bard相(xiang)匹敌的能力(li)。同(tong)時(shi),在在超过90%的情况下勝(sheng)过了其他模型,如(ru)LLaMA和斯坦福的Alpaca。

训练

Vicuna-13B的训练流(liu)程如下:

首(shou)先(xian),研究人员從(cong)ChatGPT对话分(fen)享網(wang)站(zhan)ShareGPT上,收集了大(da)約(yue)70K对话。接(jie)下来,研究人员優(you)化(hua)了Alpaca提(ti)供(gong)的训练腳(jiao)本,使模型能夠(gou)更(geng)好地處(chu)理(li)多(duo)輪(lun)对话和長(chang)序(xu)列(lie)。之(zhi)後(hou)利用PyTorch FSDP在8个A100 GPU上进行了壹(yi)天的训练。

· 內(nei)存(cun)优化:

为了使Vicuna能够理解(jie)长上下文(wen),將(jiang)最大上下文长度(du)从Alpaca的512擴(kuo)展(zhan)到(dao)2048,這(zhe)大大增(zeng)加(jia)了GPU内存需求(qiu)。在此(ci),研究人员通过使用梯(ti)度檢(jian)查(zha)點(dian)和閃(shan)存註(zhu)意(yi)力来解決(jue)内存壓(ya)力。

· 多轮对话:

通过调整(zheng)训练損(sun)失(shi)以(yi)考(kao)慮(lv)多轮对话,並(bing)仅在聊(liao)天機(ji)器(qi)人的輸(shu)出上计算(suan)微调损失。

· 通过Spot实例(li)降(jiang)低(di)成本:

采(cai)用SkyPilot托(tuo)管(guan)的Spot实例来降低成本,将7B模型的训练成本从500美元降低到约140美元,将13B模型的训练成本从约1000美元降低到300美元。

评估(gu)

在模型的質(zhi)量(liang)评估方(fang)面(mian),研究人员創(chuang)建(jian)了80个不(bu)同的问题,并用GPT-4对模型输出进行了评價(jia)。

为了比(bi)較(jiao)不同的模型,研究人员将每(mei)个模型的输出組(zu)合(he)成一个单獨(du)的提示,然(ran)后讓(rang)GPT-4评估哪(na)个模型給(gei)出的回(hui)答(da)更好。

其中(zhong),GPT-4在超过90%的问题中更喜(xi)歡(huan)Vicuna,而不是现有(you)的SOTA开源模型(LLaMA、Alpaca)。

在45%的问题中,GPT-4認(ren)为Vicuna的回答和ChatGPT差(cha)不多甚(shen)至(zhi)更好。

綜(zong)合来看(kan),Vicuna在總(zong)分上達(da)到ChatGPT的92%。

安(an)裝(zhuang)使用

安装方法(fa)一:

# Install FastChat pip3 install fschat

# Install a specific commit of huggingface/transformers# Our released weights do not work with commits after this due to some upstream changes in the tokenizer.pip3 install git+https://github.com/huggingface/transformers@c612628045822f909020f7eb6784c79700813eda

方法二(er):

1. clone版(ban)本庫(ku)并變(bian)更目錄(lu)到FastChat文件(jian)夾(jia)

git clone https://github.com/lm-sys/FastChat.gitcd FastChat

2. 安装Package

pip3 install --upgrade pip # enable PEP 660 supportpip3 install -e .

权重

根(gen)據(ju)LLaMA模型的許(xu)可(ke),权重将以delta的形(xing)式发布。只需将其加到原(yuan)来的LLaMA权重上,就可以獲(huo)得(de)最終(zhong)的Vicuna权重。

1. 按(an)照(zhao)huggingface上的說(shuo)明(ming),获得原始(shi)的LLaMA权重

2. 通过脚本,自(zi)動(dong)从团队的Hugging Face賬(zhang)户上下載(zai)delta权重

python3 -m fastchat.model.apply_delta \--base /path/to/llama-13b \--target /output/path/to/vicuna-13b \--delta lmsys/vicuna-13b-delta-v0

使用

· 单个GPU

Vicuna-13B需要(yao)大约28GB的GPU显存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights

· 多个GPU

如果沒(mei)有足(zu)够的显存,則(ze)可以使用模型并行来聚(ju)合同一臺(tai)机器上多个GPU的显存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --num-gpus 2

· 仅用CPU

如果想(xiang)在CPU上運(yun)行,则需要大约60GB的内存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --device cpu

Web UI

· 啟(qi)动控(kong)制(zhi)器

python3 -m fastchat.serve.controller

· 启动model worker

python3 -m fastchat.serve.model_worker --model-path /path/to/vicuna/weights

當(dang)进程完(wan)成模型的加载后,會(hui)看到「Uvicorn running on ...」。

· 发送(song)测试消(xiao)息(xi)

python3 -m fastchat.serve.test_message --model-name vicuna-13b

· 启动gradio网絡(luo)服(fu)務(wu)器

python3 -m fastchat.serve.gradio_web_server

现在,妳(ni)就可以打(da)开瀏(liu)覽(lan)器和模型聊天了。

微调

· 数据

Vicuna是通过使用从ShareGPT收集到的大约7萬(wan)个用户共享的对话与公共API来微调一个LLaMA基(ji)礎(chu)模型而创建的。

为了確(que)保(bao)数据质量,团队将HTML轉(zhuan)換(huan)回markdown,并过濾(lv)掉(diao)一些(xie)不合適(shi)或(huo)低质量的樣(yang)本。此外(wai),团队還(hai)将冗(rong)长的对话分成较小的片(pian)段(duan),以符(fu)合模型的最大上下文长度。

· 代(dai)码和超参数

团队使用斯坦福大学Alpaca的代码对模型进行微调,并做(zuo)了一些修(xiu)改(gai)以支(zhi)持(chi)梯度检查点和Flash注意力。此外,团队也(ye)使用与斯坦福Alpaca相似(si)的超参数。

· 用SkyPilot在雲(yun)服务上进行微调

SkyPilot是由(you)加州(zhou)大学伯克利分校(xiao)建立(li)的一个框(kuang)架(jia),可以在任(ren)何(he)与一个云服务(AWS、GCP、Azure、Lambda等)上輕(qing)松(song)、經(jing)濟(ji)地运行ML工(gong)作負(fu)载。

安装说明:https://skypilot.readthedocs.io/en/latest/getting-started/installation.html

# Install skypilot from the master branchpip install git+https://github.com/skypilot-org/skypilot.git

Vicuna可以在8个擁(yong)有80GB内存的A100 GPU上进行训练。下面的命(ming)令(ling)将自动启动一个滿(man)足要求的節(jie)点,在上面设置(zhi)并运行训练作業(ye)。

sky launch -c vicuna -s s/train-vicuna.yaml --env WANDB_API_KEY

对於(yu)Alpaca来说,训练作业会在具(ju)有4个A100-80GB GPU的单一节点上启动。

sky launch -c alpaca -s s/train-alpaca.yaml --env WANDB_API_KEY

· 使用本地GPU进行微调

Vicuna也可以用以下代码在8个A100 GPU上训练,显存为80GB。

如果要在更少(shao)的GPU上训练,则可以減(jian)少per_device_train_batch_size,并相應(ying)地增加gradient_accumulation_steps,以保持全(quan)局(ju)批(pi)大小不变。要设置環(huan)境(jing),可以参見(jian)s/train-vicuna.yaml中的设置部(bu)分。

torchrun --nnodes=1 --nproc_per_node=8 --master_port=<your_random_port> \fastchat/train/train_mem.py \--model_name_or_path <path-to-llama-model-weight> \--data_path <path-to-data> \--bf16 True \--output_dir ./checkpoints \--num_train_epochs 3 \--per_device_train_batch_size 4 \--per_device_eval_batch_size 4 \--gradient_accumulation_steps 1 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 1200 \--save_total_limit 100 \--learning_rate 2e-5 \--weight_decay 0. \--warmup_ratio 0.03 \--lr_scheduler_type"cosine" \--logging_steps 1 \--fsdp"full_shard auto_wrap" \--fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \--tf32 True \--model_max_length 2048 \--gradient_checkpointing True \--lazy_preprocess True

参考資(zi)料(liao):

https://github.com/lm-sys/FastChat/#fine-tuning返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:湖北武汉江夏区