瑜伽馆广告词有创意

瑜伽馆:你最健康的选择

瑜伽馆是你最健康的选择。瑜伽课程,让你放松心情,降低压力,帮助你变得更加平衡,灵活和强壮。如果你正在寻找一种新的健身方式,那么瑜伽馆是你最好的选择。

一位瑜伽爱好者正在做倒立的动作

在瑜伽馆,我们提供各种不同的瑜伽课程,包括初学者课程,普拉提,阴瑜伽和流瑜伽等。我们的教练都是训练有素的专业人士,他们将帮助你学习正确的瑜伽动作,以及在练习瑜伽时如何呼吸。

一位女性瑜伽爱好者正在冥想

初学者课程

我们的初学者课程适合那些没有任何瑜伽经验的人。在这个课程中,我们将向你介绍基本的瑜伽动作和姿势,以及如何在正确的呼吸下完成它们。在此之后,您将逐渐了解和掌握更复杂的瑜伽动作。

在初学者课程中,您将学习如何放松身体,同时保持精神警觉。 在您学习瑜伽的过程中,您会注意到您的身体和心灵之间的联系,这会帮助您更好地应对日常压力。

普拉提

普拉提是一种融合了瑜伽和普拉提动作的练习方式。与瑜伽一样,普拉提也强调身体的平衡和灵活性。但是,普拉提还专注于肌肉的训练和力量的提高。

在普拉提课程中,您将学习如何正确地进行核心肌群的训练,包括腹肌,臀部和背部肌肉。在这个课程中,您将变得更加平衡,更加稳定,同时也会变得更加强壮。

阴瑜伽和流瑜伽

阴瑜伽和流瑜伽是两种不同的瑜伽练习方式。阴瑜伽着重于放松身体,增加柔韧性和减轻压力。 而流瑜伽则更侧重于身体的动态性和呼吸方式。

在阴瑜伽中,您将学习如何使用深度伸展和放松技巧,帮助您在身体和心灵上得到真正的放松。 在流瑜伽中,您将学习如何在身体的动态运动中呼吸,并增强您的身体力量和耐力。

结论

瑜伽馆是您最健康的选择。 我们提供多种不同的瑜伽课程,以帮助您保持身体和心灵的平衡和健康。 在我们的课程中,您将学习如何正确地进行瑜伽动作,呼吸和放松技巧,以及如何减轻压力和放松身心。

瑜伽馆广告词有创意特色

1、进一步精修完善角色原画场景原画,使其更加唯美真实;

2、悦运动,悦健康

3、软件上学生在家做作业的情况家长也可以发布到平台上让老师查阅。

4、调整神王争霸公会及公会战!

5、必须留意的是得分将会立即危害你的奖赏,因此你必须尽量的提升得分;

瑜伽馆广告词有创意亮点

1、轻松上手真人实时的对决

2、仙魔决d游戏下载

3、不一样的折纸挑战玩法,有数字的游戏和折纸任务感受更多特定精彩游戏玩法

4、比邻而居,分享所见;邻里互助,乐享生活。

5、关卡的挑战系数是在提高,难度也在加大,对于玩家的挑战玩法会有更多的方式来进行。

jinyibujingxiuwanshanjiaoseyuanhuachangjingyuanhua,shiqigengjiaweimeizhenshi;yueyundong,yuejiankangruanjianshangxueshengzaijiazuozuoyedeqingkuangjiachangyekeyifabudaopingtaishangranglaoshizhayue。tiaozhengshenwangzhengbagonghuijigonghuizhan!bixuliuyideshidefenjianghuilijiweihainidejiangshang,yincinibixujinliangdetishengdefen;單(dan)個(ge)GPU就(jiu)能(neng)跑(pao)!UC伯(bo)克(ke)利(li)領(ling)頭(tou),130億(yi)參(can)數(shu)「小(xiao)羊(yang)駝(tuo)」權(quan)重(zhong)公(gong)布(bu)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):好(hao)困(kun)

【新智元導(dao)讀(du)】剛(gang)刚,UC伯克利、CMU、斯(si)坦(tan)福(fu)等(deng),聯(lian)手(shou)發(fa)布了(le)最(zui)新開(kai)源(yuan)模(mo)型(xing)駱(luo)馬(ma)(Vicuna)的(de)权重。

3月(yue)31日(ri),UC伯克利联手CMU、斯坦福、UCSD和(he)MBZUAI,推(tui)出(chu)了130亿参数的Vicuna,俗(su)稱(cheng)「小羊驼」(骆马),僅(jin)需(xu)300美(mei)元就能實(shi)現(xian)ChatGPT 90%的性(xing)能。

今(jin)天(tian),團(tuan)隊(dui)正(zheng)式(shi)发布了Vicuna的权重——只(zhi)需单个GPU就能跑!

項(xiang)目(mu)地(di)址(zhi):https://github.com/lm-sys/FastChat/#fine-tuning

130亿参数,90%匹(pi)敵(di)ChatGPT

Vicuna是(shi)通(tong)過(guo)在(zai)ShareGPT收(shou)集(ji)的用(yong)戶(hu)共(gong)享(xiang)對(dui)話(hua)上(shang)对LLaMA進(jin)行(xing)微(wei)調(tiao)訓(xun)練(lian)而(er)來(lai),训练成(cheng)本(ben)近(jin)300美元。

研(yan)究(jiu)人(ren)員(yuan)設(she)計(ji)了8个問(wen)題(ti)類(lei)別(bie),包(bao)括(kuo)数學(xue)、寫(xie)作(zuo)、编碼(ma),对Vicuna-13B與(yu)其(qi)他(ta)四(si)个模型进行了性能測(ce)試(shi)。

测试过程(cheng)使(shi)用GPT-4作為(wei)評(ping)判(pan)標(biao)準(zhun),結(jie)果(guo)顯(xian)示(shi)Vicuna-13B在超(chao)过90%的情(qing)況(kuang)下(xia)实现了与ChatGPT和Bard相(xiang)匹敌的能力(li)。同(tong)時(shi),在在超过90%的情况下勝(sheng)过了其他模型,如(ru)LLaMA和斯坦福的Alpaca。

训练

Vicuna-13B的训练流(liu)程如下:

首(shou)先(xian),研究人员從(cong)ChatGPT对话分(fen)享網(wang)站(zhan)ShareGPT上,收集了大(da)約(yue)70K对话。接(jie)下来,研究人员優(you)化(hua)了Alpaca提(ti)供(gong)的训练腳(jiao)本,使模型能夠(gou)更(geng)好地處(chu)理(li)多(duo)輪(lun)对话和長(chang)序(xu)列(lie)。之(zhi)後(hou)利用PyTorch FSDP在8个A100 GPU上进行了壹(yi)天的训练。

· 內(nei)存(cun)优化:

为了使Vicuna能够理解(jie)长上下文(wen),將(jiang)最大上下文长度(du)从Alpaca的512擴(kuo)展(zhan)到(dao)2048,這(zhe)大大增(zeng)加(jia)了GPU内存需求(qiu)。在此(ci),研究人员通过使用梯(ti)度檢(jian)查(zha)點(dian)和閃(shan)存註(zhu)意(yi)力来解決(jue)内存壓(ya)力。

· 多轮对话:

通过调整(zheng)训练損(sun)失(shi)以(yi)考(kao)慮(lv)多轮对话,並(bing)仅在聊(liao)天機(ji)器(qi)人的輸(shu)出上计算(suan)微调损失。

· 通过Spot实例(li)降(jiang)低(di)成本:

采(cai)用SkyPilot托(tuo)管(guan)的Spot实例来降低成本,将7B模型的训练成本从500美元降低到约140美元,将13B模型的训练成本从约1000美元降低到300美元。

评估(gu)

在模型的質(zhi)量(liang)评估方(fang)面(mian),研究人员創(chuang)建(jian)了80个不(bu)同的问题,并用GPT-4对模型输出进行了评價(jia)。

为了比(bi)較(jiao)不同的模型,研究人员将每(mei)个模型的输出組(zu)合(he)成一个单獨(du)的提示,然(ran)后讓(rang)GPT-4评估哪(na)个模型給(gei)出的回(hui)答(da)更好。

其中(zhong),GPT-4在超过90%的问题中更喜(xi)歡(huan)Vicuna,而不是现有(you)的SOTA开源模型(LLaMA、Alpaca)。

在45%的问题中,GPT-4認(ren)为Vicuna的回答和ChatGPT差(cha)不多甚(shen)至(zhi)更好。

綜(zong)合来看(kan),Vicuna在總(zong)分上達(da)到ChatGPT的92%。

安(an)裝(zhuang)使用

安装方法(fa)一:

# Install FastChat pip3 install fschat

# Install a specific commit of huggingface/transformers# Our released weights do not work with commits after this due to some upstream changes in the tokenizer.pip3 install git+https://github.com/huggingface/transformers@c612628045822f909020f7eb6784c79700813eda

方法二(er):

1. clone版(ban)本庫(ku)并變(bian)更目錄(lu)到FastChat文件(jian)夾(jia)

git clone https://github.com/lm-sys/FastChat.gitcd FastChat

2. 安装Package

pip3 install --upgrade pip # enable PEP 660 supportpip3 install -e .

权重

根(gen)據(ju)LLaMA模型的許(xu)可(ke),权重将以delta的形(xing)式发布。只需将其加到原(yuan)来的LLaMA权重上,就可以獲(huo)得(de)最終(zhong)的Vicuna权重。

1. 按(an)照(zhao)huggingface上的說(shuo)明(ming),获得原始(shi)的LLaMA权重

2. 通过脚本,自(zi)動(dong)从团队的Hugging Face賬(zhang)户上下載(zai)delta权重

python3 -m fastchat.model.apply_delta \--base /path/to/llama-13b \--target /output/path/to/vicuna-13b \--delta lmsys/vicuna-13b-delta-v0

使用

· 单个GPU

Vicuna-13B需要(yao)大约28GB的GPU显存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights

· 多个GPU

如果沒(mei)有足(zu)够的显存,則(ze)可以使用模型并行来聚(ju)合同一臺(tai)机器上多个GPU的显存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --num-gpus 2

· 仅用CPU

如果想(xiang)在CPU上運(yun)行,则需要大约60GB的内存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --device cpu

Web UI

· 啟(qi)动控(kong)制(zhi)器

python3 -m fastchat.serve.controller

· 启动model worker

python3 -m fastchat.serve.model_worker --model-path /path/to/vicuna/weights

當(dang)进程完(wan)成模型的加载后,會(hui)看到「Uvicorn running on ...」。

· 发送(song)测试消(xiao)息(xi)

python3 -m fastchat.serve.test_message --model-name vicuna-13b

· 启动gradio网絡(luo)服(fu)務(wu)器

python3 -m fastchat.serve.gradio_web_server

现在,妳(ni)就可以打(da)开瀏(liu)覽(lan)器和模型聊天了。

微调

· 数据

Vicuna是通过使用从ShareGPT收集到的大约7萬(wan)个用户共享的对话与公共API来微调一个LLaMA基(ji)礎(chu)模型而创建的。

为了確(que)保(bao)数据质量,团队将HTML轉(zhuan)換(huan)回markdown,并过濾(lv)掉(diao)一些(xie)不合適(shi)或(huo)低质量的樣(yang)本。此外(wai),团队還(hai)将冗(rong)长的对话分成较小的片(pian)段(duan),以符(fu)合模型的最大上下文长度。

· 代(dai)码和超参数

团队使用斯坦福大学Alpaca的代码对模型进行微调,并做(zuo)了一些修(xiu)改(gai)以支(zhi)持(chi)梯度检查点和Flash注意力。此外,团队也(ye)使用与斯坦福Alpaca相似(si)的超参数。

· 用SkyPilot在雲(yun)服务上进行微调

SkyPilot是由(you)加州(zhou)大学伯克利分校(xiao)建立(li)的一个框(kuang)架(jia),可以在任(ren)何(he)与一个云服务(AWS、GCP、Azure、Lambda等)上輕(qing)松(song)、經(jing)濟(ji)地运行ML工(gong)作負(fu)载。

安装说明:https://skypilot.readthedocs.io/en/latest/getting-started/installation.html

# Install skypilot from the master branchpip install git+https://github.com/skypilot-org/skypilot.git

Vicuna可以在8个擁(yong)有80GB内存的A100 GPU上进行训练。下面的命(ming)令(ling)将自动启动一个滿(man)足要求的節(jie)点,在上面设置(zhi)并运行训练作業(ye)。

sky launch -c vicuna -s s/train-vicuna.yaml --env WANDB_API_KEY

对於(yu)Alpaca来说,训练作业会在具(ju)有4个A100-80GB GPU的单一节点上启动。

sky launch -c alpaca -s s/train-alpaca.yaml --env WANDB_API_KEY

· 使用本地GPU进行微调

Vicuna也可以用以下代码在8个A100 GPU上训练,显存为80GB。

如果要在更少(shao)的GPU上训练,则可以減(jian)少per_device_train_batch_size,并相應(ying)地增加gradient_accumulation_steps,以保持全(quan)局(ju)批(pi)大小不变。要设置環(huan)境(jing),可以参見(jian)s/train-vicuna.yaml中的设置部(bu)分。

torchrun --nnodes=1 --nproc_per_node=8 --master_port=<your_random_port> \fastchat/train/train_mem.py \--model_name_or_path <path-to-llama-model-weight> \--data_path <path-to-data> \--bf16 True \--output_dir ./checkpoints \--num_train_epochs 3 \--per_device_train_batch_size 4 \--per_device_eval_batch_size 4 \--gradient_accumulation_steps 1 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 1200 \--save_total_limit 100 \--learning_rate 2e-5 \--weight_decay 0. \--warmup_ratio 0.03 \--lr_scheduler_type"cosine" \--logging_steps 1 \--fsdp"full_shard auto_wrap" \--fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \--tf32 True \--model_max_length 2048 \--gradient_checkpointing True \--lazy_preprocess True

参考資(zi)料(liao):

https://github.com/lm-sys/FastChat/#fine-tuning返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:河南鹤壁浚县