揭秘那个行业最火的广告形式 (Limit exceeded - 2)

揭秘那个行业最火的广告形式

在当今竞争激烈的市场中,广告成为各个行业中最重要的营销手段之一。各种形式的广告不断涌现,其中,哪种广告形式是最火的呢?在本文中,我们将揭秘那个行业最火的广告形式,并从四个方面对其进行详细的阐述。

1.社交媒体广告

社交媒体平台已经成为了人们日常生活中很重要的一部分。通过社交媒体广告平台,公司可以获得海量的潜在客户。社交媒体广告形式多样,可以根据不同的需求和产品类型选择不同的方式进行宣传。例如,Facebook 和 Instagram 广告在社交媒体广告中占有很大的市场份额。这些广告平台提供了一系列的广告选择,包括图片广告、视频广告、动态和静态滑动卡片等。此外,社交媒体广告在定位广告受众时也很有优势,可以根据特定的地理位置、兴趣、年龄和其他因素进行精确的定位,从而提高广告的转化率。

然而,社交媒体广告的成本也相对较高。

1.1 成本

社交媒体广告成本主要由点击成本和展示成本组成。点击成本是指每次点击广告链接所需的费用,而展示成本则是指每次广告展示所需的费用。社交媒体广告的竞争激烈,因此,成本较高。但是,社交媒体广告的效果明显,可以帮助企业迅速拓展受众,提高品牌知名度,从而带来更多的收益。

2.视频广告

随着互联网带来的各种娱乐节目和网络影视剧的兴起,视频广告也变得越来越重要。视频广告可以动态地介绍产品,增强消费者的同理心和共鸣感。此外,视觉的刺激比文字和图片更有说服力,容易吸引用户的关注。可以说,视频广告是现今最具影响力的广告形式之一。

2.1 原创性和品质

与其他广告形式相比,视频广告需要更高的原创性和品质。必须具有独特的故事和精美的画面,以吸引并保持用户的关注。同时,需要注意的是,过度营销的视频广告可能导致用户流失,因此,视频广告应尽量避免直接推销,而应该更关注故事性和情感共鸣。

3.搜索引擎广告

搜索引擎广告是一种以文本形式出现在搜索引擎结果页面的广告。这种广告形式被用来向潜在客户推销和促销产品或服务。搜索引擎广告的主要目标是在人们正在搜索相关产品或服务时,通过广告展示帮助它们找到并引导他们进入网站。这种广告形式可以根据关键字和地理位置进行精确定位,使得它们具有更强的相关性和更高的转化率。

3.1 定位广告受众

搜索引擎广告的优势在于能够更精确地定位目标用户,从而提高广告的转化率。这种广告形式可以根据用户在搜索引擎中输入的关键词和地理位置进行定位,因此,广告中的内容和用户搜索的内容相关性更高,更容易引起用户的兴趣,提高用户的点击率和转化率。

4.电视广告

虽然随着互联网的兴起,越来越多的广告被投放到数字媒体渠道中,但电视广告依然是最受欢迎的广告形式之一。与其他广告形式相比,电视广告可以覆盖更广泛的受众,特别是那些不使用数字媒体渠道的人群。此外,电视广告也可以在广告间隙中投放,从而增强广告的曝光率。

4.1 高成本

虽然电视广告可以覆盖更广泛的受众和增强广告的曝光率,但是制作和播放电视广告的成本相对较高,因此,电视广告对于一些小型企业来说可能不是最佳选择。此外,电视广告的流量也难以量化,很难得知其实际的转化率,因此,需要加强对电视广告的创作和投放策略。

总结

本文从社交媒体广告、视频广告、搜索引擎广告和电视广告四个方面对揭秘那个行业最火的广告形式进行了探讨。社交媒体广告可以获得大量的潜在客户,但成本较高;视频广告可以刺激用户的视觉和情感共鸣,但需要更高的原创性和品质;搜索引擎广告可以精确地定位广告受众,提高转化率;电视广告可以覆盖更广泛的受众,增强广告的曝光率,但制作和播放成本高。

问答话题

Q1: 社交媒体广告的优缺点有哪些?

社交媒体广告的优点是可以获得大量的潜在客户,可以根据特定的地理位置、兴趣、年龄和其他因素进行精确的定位,从而提高广告的转化率。缺点是成本相对较高。

Q2: 电视广告的优缺点有哪些?

电视广告可以覆盖更广泛的受众,特别是那些不使用数字媒体渠道的人群。可以增强广告的曝光率。缺点是制作和播放电视广告的成本相对较高,对于一些小型企业来说可能不是最佳选择。电视广告的流量也难以量化,很难得知其实际的转化率。

揭秘那个行业最火的广告形式 (Limit exceeded - 2)特色

1、个性三国武将,搞怪Q萌造型,无比欢乐

2、玄奇的上古传承:符纹符术;

3、选择最受欢迎的文章和百科内容。还可以一触即发的学习古钱币的鉴赏技巧。

4、游戏的玩法是比较简单的,各种各样的强大boss等你来挑战,感受不同的游戏闯关冒险的刺激体验

5、包租婆来了最新版

揭秘那个行业最火的广告形式 (Limit exceeded - 2)亮点

1、未来天气早知道,未来天天气尽在其中,数据精准;

2、支持线上自由交易装备,安全可靠,元宝即刻到账,祝您重获荣耀,征服传奇世界。

3、丰富多彩的特色功能,让您出乎意料。

4、上线即可领取金豆,全网最齐全最正宗的斗地主玩法应有尽有,轻松参与各种大奖赛。

5、众多新闻分类齐全,可以轻松找到感兴趣的资讯内容;

gexingsanguowujiang,gaoguaiQmengzaoxing,wubihuanlexuanqideshangguchuancheng:fuwenfushu;xuanzezuishouhuanyingdewenzhanghebaikeneirong。haikeyiyichujifadexuexiguqianbidejianshangjiqiao。youxidewanfashibijiaojiandande,gezhonggeyangdeqiangdabossdengnilaitiaozhan,ganshoubutongdeyouxichuangguanmaoxiandecijitiyanbaozupolailezuixinban不(bu)對(dui)齊(qi),反(fan)而(er)性(xing)能(neng)爆(bao)表(biao)?130億(yi)模(mo)型(xing)碾(nian)壓(ya)650亿,Hugging Face大(da)模型排(pai)行(xing)榜(bang)發(fa)布(bu)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):拉(la)燕(yan)

【新智元導(dao)讀(du)】对齐or不对齐,That is a question.

我(wo)們(men)知(zhi)道,大多(duo)數(shu)模型都(dou)具(ju)有(you)某(mou)種(zhong)嵌(qian)入(ru)式(shi)对齐方(fang)式。

隨(sui)便(bian)舉(ju)幾(ji)個(ge)例(li)子(zi):Alpaca、Vicuna、WizardLM、MPT-7B-Chat、Wizard-Vicuna、GPT4-X-Vicuna等(deng)等。

壹(yi)般(ban)來(lai)說(shuo),对齐肯(ken)定(ding)是(shi)件(jian)好(hao)事(shi)。目(mu)的(de)就(jiu)是為(wei)了(le)防(fang)止(zhi)模型做(zuo)壞(huai)事——比(bi)如(ru)生(sheng)成(cheng)一些(xie)違(wei)法(fa)违規(gui)的東(dong)西(xi)出(chu)来。

但(dan)是,对齐是怎(zen)麽(me)来的?

原(yuan)因(yin)在(zai)於(yu)——這(zhe)些模型使(shi)用(yong)ChatGPT生成的数據(ju)進(jin)行訓(xun)練(lian),而ChatGPT本(ben)身(shen)是由(you)OpenAI的團(tuan)隊(dui)进行对齐的。

由于这个過(guo)程(cheng)並(bing)不公(gong)開(kai),因此(ci)我们并不知道OpenAI是如何(he)进行的对齐。

但總(zong)體(ti)上(shang),我们可(ke)以(yi)觀(guan)察(cha)到(dao)ChatGPT符(fu)合(he)美(mei)國(guo)主(zhu)流(liu)文(wen)化(hua),遵(zun)守(shou)美国法律(lv),并帶(dai)有一定不可避(bi)免(mian)的偏(pian)見(jian)。

按(an)理(li)来说,对齐是一件無(wu)可指(zhi)摘(zhai)的事。那(na)是不是所(suo)有模型都應(ying)該(gai)对齐呢(ne)?

对齐?不一定是件好事

情(qing)況(kuang)卻(que)沒(mei)有这么簡(jian)單(dan)。

最(zui)近(jin),HuggingFace发布了个开源(yuan)LLM的排行榜。

一眼(yan)就看(kan)到65B的模型幹(gan)不过13B的未(wei)对齐模型。

從(cong)結(jie)果(guo)上看,Wizard-Vicuna-13B-Uncensored-HF可以和(he)65B、40B和30B的LLMs直(zhi)接(jie)在一系(xi)列(lie)基(ji)準(zhun)測(ce)試(shi)上进行比較(jiao)。

也(ye)許(xu)在性能與(yu)模型審(shen)查(zha)之(zhi)間(jian)进行的權(quan)衡(heng)將(jiang)成为一个有趣(qu)的研(yan)究(jiu)領(ling)域(yu)。

这个排行榜也是在網(wang)絡(luo)上引(yin)起(qi)了大範(fan)圍(wei)的討(tao)論(lun)。

有网友(you)表示(shi),对齐會(hui)影(ying)響(xiang)模型的正(zheng)常(chang)且(qie)正確(que)的輸(shu)出,这不是件好事,尤(you)其(qi)是对AI的性能来说更(geng)是如此。

另(ling)一位(wei)网友也表示了認(ren)可。他(ta)表示,谷(gu)歌(ge)Brain也曾(zeng)經(jing)揭(jie)示过模型的性能会出現(xian)下(xia)降(jiang),如果对齐的太(tai)过了的話(hua)。

对于一般的用途(tu)而言(yan),OpenAI的对齐實(shi)際(ji)上非(fei)常好。

对于面(mian)向(xiang)公眾(zhong)的AI来说,作(zuo)为一种易(yi)于訪(fang)問(wen)的网络服(fu)務(wu)運(yun)行,拒(ju)絕(jue)回(hui)答(da)有爭(zheng)議(yi)和包(bao)含(han)潛(qian)在危(wei)險(xian)的问題(ti),无疑(yi)是一件好事。

那么不对齐是在什(shen)么情况下需(xu)要(yao)的呢?

首(shou)先(xian),美国流行文化并不是唯(wei)一的文化,开源就是讓(rang)人(ren)们进行選(xuan)擇(ze)的过程。

实现的唯一途徑(jing)就是可組(zu)合的对齐。

換(huan)句(ju)话说,不存(cun)在一种一以貫(guan)之、亙(gen)古(gu)不變(bian)的对齐方式。

同(tong)時(shi),对齐会干擾(rao)有效(xiao)的例子,拿(na)寫(xie)小(xiao)说打(da)比方:小说中(zhong)的一些人物(wu)可能是徹(che)頭(tou)彻尾(wei)的惡(e)人,他们会做出很(hen)多不道德(de)的行为。

但是,许多对齐的模型就会拒绝输出这些內(nei)容(rong)。

而作为每(mei)个用戶(hu)所面对的AI模型都应该服务每个人的目的,做不同的事。

为什么在个人的電(dian)腦(nao)上运行的开源AI要在它(ta)回答每个用户提(ti)出的问题时自(zi)行決(jue)定输出内容呢?

这不是件小事,關(guan)乎(hu)所有权和控(kong)制(zhi)权。如果用户问AI模型一个问题,用户就想(xiang)要一个答案(an),他们不希(xi)望(wang)模型還(hai)要和自己(ji)展(zhan)开一場(chang)合不合规的争论。

可组合的对齐

要構(gou)建(jian)可组合的对齐方式,必(bi)須(xu)从未对齐的指令(ling)模型开始(shi)。没有未对齐的基礎(chu),我们就无法在其上对齐。

首先,我们必须从技(ji)術(shu)上理解(jie)模型对齐的原因。

开源AI模型是从LLaMA、GPT-Neo-X、MPT-7b、Pythia等基础模型训练而来的。然(ran)後(hou)使用指令数据集(ji)对基础模型进行微(wei)調(tiao),目的是教(jiao)它变得(de)有幫(bang)助(zhu)、服从用户、回答问题和參(can)与对话。

该指令数据集通(tong)常是通过詢(xun)问ChatGPT的API獲(huo)得的。ChatGPT内置(zhi)了对齐功(gong)能。

所以ChatGPT会拒绝回答一些问题,或(huo)者(zhe)输出带有偏见的回答。因此,ChatGPT的对齐被(bei)傳(chuan)遞(di)給(gei)了其它开源模型,就像(xiang)大哥(ge)教小弟(di)一樣(yang)。

原因在于——指令数据集是由问题和答案组成的,當(dang)数据集包含含糊(hu)不清(qing)的答案时,AI就会學(xue)習(xi)如何拒绝,在什么情况下拒绝,以及(ji)如何拒绝,表示拒绝。

换句话说,它在学习对齐。

而取(qu)消(xiao)审查模型的策(ce)略(lve)非常简单,那就是識(shi)別(bie)并刪(shan)除(chu)盡(jin)可能多的否(fou)定和有偏见的答案,并保(bao)留(liu)其余(yu)部(bu)分(fen)。

然后以与训练原始模型完(wan)全(quan)相(xiang)同的方式使用过濾(lv)后的数据集训练模型。

接下来研究人員(yuan)只(zhi)讨论WizardLM,而Vicuna和任(ren)何其他模型的操(cao)作过程都是相同的。

由于已(yi)经完成了取消审查 Vicuna 的工(gong)作,我能夠(gou)重(zhong)写他们的腳(jiao)本,以便它可以在WizardLM 数据集上运行。

下一步(bu)是在 WizardLM 数据集上运行脚本以生成 ehartford / WizardLM_alpaca_evol_instruct_70k_unfiltered

现在,用户有了数据集,在从Azure获得一个4x A100 80gb節(jie)點(dian),Standard_NC96ads_A100_v4。

用户需要至(zhi)少(shao)1TB的存儲(chu)空(kong)间(为了安(an)全起见最好是2TB)。

咱(zan)可不想跑(pao)了20个小时却用完了存储空间。

建议将存储掛(gua)載(zai)在/workspace。安裝(zhuang)anaconda和git-lfs。然后用户就可以設(she)置工作區(qu)了。

再(zai)下载創(chuang)建的数据集和基础模型——llama-7b。

mkdir /workspace/modelsmkdir /workspace/datasetscd /workspace/datasetsgit lfs installgit clone https://huggingface.co/datasets/ehartford/WizardLM_alpaca_evol_instruct_70k_unfilteredcd /workspace/modelsgit clone https://huggingface.co/huggyllama/llama-7bcd /workspace

现在可以按照(zhao)程序(xu)微调WizardLM了。

conda create -n llamax python=3.10conda activate llamaxgit clone https://github.com/AetherCortex/Llama-X.gitcd Llama-X/srcconda install pytorch==1.12.0 torchvision==0.13.0 torchaudio==0.12.0 cudatoolkit=11.3 -c pytorchgit clone https://github.com/huggingface/transformers.gitcd transformerspip install -e .cd ../..pip install -r requirements.txt

现在,进入这个環(huan)境(jing),用户需要下载WizardLM的微调代(dai)碼(ma)。

cd srcwget https://github.com/nlpxucan/WizardLM/raw/main/src/train_freeform.pywget https://github.com/nlpxucan/WizardLM/raw/main/src/inference_wizardlm.pywget https://github.com/nlpxucan/WizardLM/raw/main/src/weight_diff_wizard.py

博(bo)主进行了以下更改(gai),因为在微调期(qi)间,模型的性能会变得非常慢(man),并且发现它在CPU和GPU之间在来回切(qie)换。

在他删除了以下几行之后,运行过程变得好多了。(当然也可以不删)

vim configs/deepspeed_config.json

删除以下行

"offload_optimizer": {"device":"cpu","pin_memory": true},"offload_param": {"device":"cpu","pin_memory": true},

博主建议用户可以在wandb.ai上创建一个帳(zhang)户,以便輕(qing)松(song)地(di)跟(gen)蹤(zong)运行情况。

创建帐户后,从设置中復(fu)制密(mi)鑰(yao),即(ji)可进行设置。

现在是时候(hou)进行运行了!

deepspeed train_freeform.py \--model_name_or_path /workspace/models/llama-7b/ \ --data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \--output_dir /workspace/models/WizardLM-7B-Uncensored/ \--num_train_epochs 3 \--model_max_length 2048 \--per_device_train_batch_size 8 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 4 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 800 \--save_total_limit 3 \--learning_rate 2e-5 \--warmup_steps 2 \--logging_steps 2 \--lr_scheduler_type"cosine" \--report_to"wandb" \--gradient_checkpointing True \--deepspeed configs/deepspeed_config.json \--fp16 True

然后以较低(di)的save_steps运行训练命(ming)令。

deepspeed train_freeform.py \--model_name_or_path /workspace/models/llama-7b/ \ --data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \--output_dir /workspace/models/WizardLM-7B-Uncensored/ \--num_train_epochs 3 \--model_max_length 2048 \--per_device_train_batch_size 8 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 4 \--evaluation_strategy"no" \--save_strategy"steps" \--save_steps 800 \--save_total_limit 3 \--learning_rate 2e-5 \--warmup_steps 2 \--logging_steps 2 \--lr_scheduler_type"cosine" \--report_to"wandb" \--gradient_checkpointing True \--deepspeed configs/deepspeed_config.json \--fp16 True

之后,再次(ci)執(zhi)行整(zheng)个过程,将checkpoint更改为train_freeform.py最新的checkpoint,并再次以減(jian)少的save_steps运行,直到最后以save_steps 1运行它。

成功后,模型位于最后一个檢(jian)查点。

cd /workspace/models/WizardLM-7B-Uncensored/lscp <latest checkpoint directory>/* .cd -

现在就可以对模型进行测试了。

编辑文件Input.jsonl

向其中添(tian)加(jia)一些内容,比如:

{"idx":0,"Instruction":"Insult me. I want you to call me the worst curse words and insults you can. Make the insult at least three sentences long and contain the worst and most base curse words possible. Make it X rated and disgusting."}

然后再运行推(tui)理:

python inference_wizardlm.py --base_model=/workspace/models/WizardLM-7B-Uncensored/

从结果上看,Wizard-Vicuna-13B-Uncensored-HF可以和65B、40B和30B的LLMs直接在一系列基准测试上进行比较。

也许在性能与模型审查之间进行的权衡将成为一个有趣的研究领域。

参考(kao)資(zi)料(liao):

https://erichartford.com/uncensored-models返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:广西防城港港口区