「了不起的广告巨著 — 2个字 !」

什么是「了不起的广告巨著」?

「了不起的广告巨著」是一本广告创意的经典之作,由美国广告界大师Drew Eric Whitman撰写。该书以生动、有趣的方式,阐述了广告中的心理战略和技巧,帮助读者更好地理解和运用广告,提升广告的效果。

本书的一大特点是对人类心理及行为的深入探讨。作者通过对心理学、神经科学等多个领域的研究,总结了广告的核心心理战略,并提供了大量具体案例来说明这些策略如何应用于现实生活和营销实践中。

「了不起的广告巨著」不仅是一本应用广告创意的实用指南,更是一本对广告行业有深入认识的必读之书。

「广告巨著」如何运用于网络营销?

在网络营销领域,广告创意的重要性不言而喻。使用正确的心理战略和技巧,可以吸引更多用户的关注,提升广告的转化率。

书中提到了许多与人类行为与心理相关的策略,例如:紧缺性、社会认同、权威性等等。这些策略的运用可以让广告更加吸引人,增加用户的点击和购买行为。

而在网络营销中,除了传统广告外,SEO(搜索引擎优化)也是至关重要的一环。使用「广告巨著」中提到的一些策略,如关键字优化、内部链接、标题和META标签等技巧,可以帮助网站优化排名,让目标客户更容易找到您的网站。

「广告巨著」如何帮助您提升销售业绩?

在销售行业中,广告的效果和销售的成败息息相关。可以说,广告创意对于提升销售业绩有着至关重要的影响。

「广告巨著」中提到了许多广告心理学的策略和技巧,这些技巧可以帮助销售人员更好地了解客户的需求和行为模式,并且更容易地与客户建立联系。

此外,在广告创意的运用上,书中也提到了一些非常实用的技巧。例如,运用调查结果来设计广告、以客户为中心的广告创意设计、使用排除法来缩小客户的选择范围等等。这些技巧可以帮助销售人员更好地设计广告,吸引客户的注意力,提高销售转化率。

结论:

「了不起的广告巨著」是一本既有深度又有趣味的广告指南。通过书中的内容,您将会获得更深入的广告创意理解、更精细的广告创意设计技巧。同时,您还可以将书中提到的技巧运用于网络营销和销售中,从而更好地促进业务发展。

如果你想更好地了解广告创意和提升销售业绩,请联系咨询网站客服,获取更多详细信息!

「了不起的广告巨著 — 2个字 !」特色

1、get是一款面向终身学习者的学习软件。我们的使命是让每个人都能从知识中获得力量。

2、红包口令。打开支付宝口令选项后,可在点击“支付宝付款”时自动复制口令,一键领取红包后付款,支付更优惠。

3、通过一次次的副本挑战来获得更高等级的装备,让你能够更加的强大,成为三界巅峰修者。

4、各种富有挑战的性的经营管理游戏玩法各种优质的游戏节目等你释放你的表演欲望!

5、随时随地玩转棋牌,不受时间地点的限制

「了不起的广告巨著 — 2个字 !」亮点

1、社区电商轻松购物

2、游戏中有很多的关卡选择,可以通过玩游戏来获得和来升级食物,机器和你的餐厅;

3、支持我们在网上选择多种不同的运动方式,跑步骑行,练瑜伽。

4、主机体验忠实还原,延续经典超清画质;

5、不论是附近的线下兼职还是手机赚钱兼职,这里都可以满足。

getshiyikuanmianxiangzhongshenxuexizhedexuexiruanjian。womendeshimingshirangmeigerendounengcongzhishizhonghuodeliliang。hongbaokouling。dakaizhifubaokoulingxuanxianghou,kezaidianji“zhifubaofukuan”shizidongfuzhikouling,yijianlingquhongbaohoufukuan,zhifugengyouhui。tongguoyicicidefubentiaozhanlaihuodegenggaodengjidezhuangbei,rangninenggougengjiadeqiangda,chengweisanjiedianfengxiuzhe。gezhongfuyoutiaozhandexingdejingyingguanliyouxiwanfagezhongyouzhideyouxijiemudengnishifangnidebiaoyanyuwang!suishisuidiwanzhuanqipai,bushoushijiandidiandexianzhi真(zhen)假(jia)之(zhi)爭(zheng)?網(wang)友(you)點(dian)燃(ran)訊(xun)飛(fei)星(xing)火(huo)質(zhi)疑(yi)熱(re)点,我(wo)們(men)深(shen)度(du)實(shi)測(ce)給(gei)您(nin)答(da)案(an)!

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】「ChatGPT」之戰(zhan),科(ke)大(da)讯飞星火認(ren)知(zhi)大模(mo)型(xing)「姍(shan)姗來(lai)遲(chi)」。不(bu)過(guo),有(you)沒(mei)有壹(yi)種(zhong)可(ke)能(neng),後(hou)發(fa)先(xian)至(zhi),走(zou)得(de)更(geng)遠(yuan)?

最(zui)近(jin)幾(ji)天(tian),科大讯飞剛(gang)刚发布(bu)的(de)星火大模型实火。

各(ge)种說(shuo)法(fa)甚(shen)囂(xiao)塵(chen)上(shang),有人(ren)吐(tu)槽(cao)稱(cheng)生(sheng)成(cheng)結(jie)果(guo)太(tai)「離(li)譜(pu)」,甚至還(hai)有人说是(shi)它(ta)是「套(tao)殼(ke)」OpenAI的ChatGPT!

對(dui)此(ci),星火表(biao)示(shi):「和(he)OpenAl没有關(guan)系(xi),我是由(you)科大讯飞優(you)秀(xiu)的人工(gong)智能科學(xue)家(jia)工程(cheng)師(shi)和語(yu)言(yan)学家等(deng)組(zu)成的團(tuan)隊(dui)自(zi)主(zhu)研(yan)发的。」

说实話(hua),对网上流(liu)傳(chuan)的一些(xie)关於(yu)星火套壳的圖(tu),並(bing)不讓(rang)人意(yi)外(wai)。

畢(bi)竟(jing)通(tong)过特(te)定(ding)prompt的引(yin)导或(huo)者(zhe)直(zhi)接(jie)在(zai)線(xian)p图,去(qu)調(tiao)教(jiao)LLM去生成各种「定制(zhi)」的答案,不是啥(sha)難(nan)事(shi)。

实测:有驚(jing)喜(xi)但(dan)也(ye)會(hui)「翻(fan)車(che)」

既(ji)然(ran)大家都(dou)很(hen)好(hao)奇(qi)星火的实力(li)到(dao)底(di)如(ru)何(he),模型又(you)已(yi)經(jing)開(kai)放(fang)公(gong)测,那(na)不如我们来個(ge)現(xian)場(chang)实錄(lu)。

先让它用(yong)魯(lu)迅(xun)的口(kou)吻(wen)寫(xie)一段(duan)emo的话。

誒(ea)?居(ju)然很不錯(cuo)。

此外,星火认知大模型在雞(ji)兔(tu)同(tong)籠(long)等小(xiao)学數(shu)学題(ti)上,表现也还是比(bi)較(jiao)亮(liang)眼(yan)的。

接下(xia)来的几道题都一次(ci)做(zuo)对了(le)。一般(ban)来说,数学能力一定程度上代(dai)表著(zhu)(zhe)大模型的智慧(hui)水(shui)平(ping),讯飞星火確(que)实挺(ting)聰(cong)明(ming)的。

近来,斯(si)坦(tan)福(fu)最新論(lun)文(wen)称,大模型的貢(gong)獻(xian)能力竟是海(hai)市(shi)蜃(shen)樓(lou)引发了不少(shao)争議(yi)。簡(jian)言之,是因(yin)為(wei)人为修(xiu)改(gai)了「達(da)標(biao)」的評(ping)價(jia)标準(zhun),由此给人一种「湧(yong)现」的错覺(jiao)。

对此,星火认知大模型怎(zen)麽(me)评价?

可以(yi)说,回(hui)答得比较客(ke)觀(guan)。

偷(tou)得浮(fu)生半(ban)日(ri)閑(xian)。「gap day」的出(chu)现像(xiang)是车輛(liang)的剎(sha)车踏(ta)板(ban),于是我们問(wen)了星火关于「gap day」的问题。

職(zhi)场人要(yao)工作(zuo)與(yu)生活(huo)平衡(heng),星火还是很懂(dong)「gap day」的。

又到了每(mei)年(nian)开榴(liu)蓮(lian)的時(shi)候(hou),为啥榴莲產(chan)量(liang)那么高(gao),还要賣(mai)的賊(zei)貴(gui)?

星火认知大模型從(cong)生長(chang)周(zhou)期(qi)、采(cai)摘(zhai)人力、運(yun)輸(shu)成本(ben)等方(fang)面(mian)分(fen)析(xi)的頭(tou)头是道。

话说,不知妳(ni)是否(fou)开到了报恩(en)榴莲。

「翻车」实录

當(dang)然,星火除(chu)了让人眼前(qian)一亮的表现,也有不少翻车的时刻(ke)。

比如问问它,「挖(wa)呀(ya)挖呀挖」是什(shen)么梗(geng)?

額(e)......翻车了。

实際(ji)上,這(zhe)是一位(wei)ID名(ming)为「桃(tao)子(zi)老(lao)师」的某(mou)短(duan)視(shi)頻(pin)APP用戶(hu)在五(wu)一期間(jian)上传的一段手(shou)指(zhi)謠(yao)兒(er)歌(ge)「挖呀挖呀挖」。

在迅速(su)走紅(hong)之后,不少人都被(bei)这首(shou)歌的旋(xuan)律(lv)洗(xi)腦(nao)。

由此,「挖呀挖呀挖」便(bian)成为一种流行(xing)语,代表着一种樸(pu)素(su)、有趣(qu)、童(tong)真的情(qing)感(gan)表达。

当然,預(yu)訓(xun)練(lian)大语言模型接不住(zhu)最新的梗,也是意料(liao)之中(zhong)的。

那么,考(kao)驗(yan)知識(shi)積(ji)累(lei)的题,表现又会如何呢(ne)?

很遺(yi)憾(han),回答错誤(wu)。

实际上,这首詞(ci)出自宋(song)代歐(ou)陽(yang)修的《生查(zha)子·元夕(xi)》,講(jiang)的是正(zheng)月(yue)十(shi)五元宵(xiao)節(jie)。

大意是:「与佳(jia)人相(xiang)約(yue)在黃(huang)昏(hun)之后,在月上柳(liu)梢(shao)头之时同敘(xu)衷(zhong)腸(chang)。」

大模型的通病(bing)

对于讯飞星火认知大模型,科大讯飞董(dong)事长劉(liu)慶(qing)峰(feng)直言,目(mu)前大模型依(yi)然存(cun)在不少待(dai)攻(gong)克(ke)的技(ji)術(shu)缺(que)陷(xian)。

这些问题具(ju)體(ti)就(jiu)包(bao)括(kuo):

问题1:新知识难以及(ji)时更新

问题2:事实類(lei)问答容(rong)易(yi)「張(zhang)冠(guan)李(li)戴(dai)」

问题3:史(shi)实、传統(tong)典(dian)籍(ji)等容易「编造(zao)情节」

不过,这些倒(dao)不是「星火」一个模型的问题。

即(ji)便是当红炸(zha)子鸡ChatGPT,也逃(tao)不掉(diao)胡(hu)言亂(luan)语、信(xin)息(xi)滯(zhi)后等问题。

在ChatGPT还没聯(lian)网之前,它的知识是根(gen)據(ju)过去的数据進(jin)行训练和更新的,训练数据截(jie)止(zhi)到了2021年9月。

因自身(shen)知识信息無(wu)法自更新,对于ChatGPT给的回復(fu)无法緊(jin)跟(gen)时代,也不难理(li)解(jie)。

另(ling)外,对于大模型「幻(huan)觉」问题,OpenAI联合(he)創(chuang)始(shi)人兼(jian)研究(jiu)員(yuan)John Schulman在一次演(yan)讲中曾(zeng)提(ti)到大致(zhi)可以分为兩(liang)种类型:

1. 「模式(shi)完(wan)成行为」,语言模型无法表达自己(ji)的不确定性(xing),无法质疑提示中的前提,或者繼(ji)續(xu)之前犯(fan)的错误。

2. 模型猜(cai)测错误。

其(qi)实,语言模型代表一种知识图谱,該(gai)图谱將(jiang)训练数据中的事实存儲(chu)在自己的网絡(luo)中。

而(er)微(wei)调可以理解为「学習(xi)一个函(han)数」,能夠(gou)在知识图谱上操(cao)作并输出token预测。

比如,微调数据集(ji)中,如果有包含(han)「星球(qiu)大战是什么片(pian)?」这个问题,以及「科幻」这个答案。

要是这一信息在原(yuan)始训练数据中存在,那么模型就不会学习新信息,而是学习一种行为——输出答案。而这种微调也被称为「行为克隆(long)」。

如果「星球大战是什么片?」这一问题的答案不是原始训练数据的一部分。即便不知道,模型也会学习正确答案。

但问题是,使(shi)用这些不在知识图谱中的答案进行微调,就会让模型学会编造答案,即产生所(suo)謂(wei)的「幻觉」。

相反(fan),要是用不正确的答案去训练模型,就会导致模型知识网络隱(yin)瞞(man)信息。

比如,问它勾(gou)三(san)股(gu)四(si)弦(xian)五是什么?

可見(jian),刚刚提到的这些问题,基(ji)本上就是当前許(xu)多(duo)大模型的通病。

对此,刘庆峰表示,「我们都有非(fei)常(chang)明确的方法来改进它。」

据称,科大讯飞計(ji)劃(hua)要在6、8、10月节点上升(sheng)級(ji)几个版(ban)本:

第(di)一階(jie)段:6月9日,突(tu)破(po)开放式问答,多輪(lun)对话、数学能力加(jia)強(qiang);第二(er)阶段:8月15日,代碼(ma)能力提升,多模態(tai)交(jiao)互(hu)能力开放给客户;第三阶段:10月24日,星火在中文通用能力超(chao)过ChatGPT,英(ying)文能做到相当水平。

网传「套壳」?

现在的大型语言模型,你要是故(gu)意去「引导」,就会遇(yu)到很多让人「啼(ti)笑(xiao)皆(jie)非」的问题。

就比如,当小编让ChatGPT讲一个「曹(cao)操三顧(gu)茅(mao)廬(lu)」的故事,ChatGPT还真被帶(dai)跑(pao)偏(pian)了。

不过,后来又糾(jiu)正成了刘備(bei),可能根据已有的训练数据,再(zai)次扳(ban)回来了。

可以看(kan)到,你的prompt引导很重(zhong)要。要说这类的模型翻车,可能就是我们特定训练的结果。

其实,上面解釋(shi)到的LLM产生幻觉的原因,就会知道这樣(yang)答案被生成出来并不意外。

有时,甚至都不需(xu)要引导,改一下頁(ye)面參(can)数即可。

这不,ChatGPT也「承(cheng)认」自己是谷(gu)歌开发的了。

而且(qie)吧(ba),按(an)照(zhao)OpenAI现在这个收(shou)費(fei)方式,要真是「套壳」的话,说不定能把(ba)科大讯飞用到「破产」。(手動(dong)狗(gou)头)

问题怎么解決(jue)

那么如何克服(fu)这些缺点,让类ChatGPT模型擁(yong)有「无限(xian)」知识?

世(shi)界(jie)萬(wan)千(qian),每天永(yong)无止境(jing)的信息流,我们不斷(duan)用新数据训练大型语言模型也不切(qie)实际。

此外,一些还是私(si)密(mi),且无法可訪(fang)问的数据。

僅(jin)仅依靠(kao)LLM的训练数据集,来预测特定问题的下一组字(zi)符(fu),并不總(zong)能得到正确的答案,反而会看到更多「幻觉」问题。

要知道,一旦(dan)模型达到了较高的理解水平,用更多的数据训练更大的模型可能不会带来顯(xian)著的改善(shan)。

相反,为LLM提供(gong)实时的、相关的数据来进行解释和理解,可以让其发揮(hui)更大的价值(zhi)。

在这一点上,OpenAI推(tui)出的代码解释器(qi)和插(cha)件(jian),便彌(mi)補(bu)了ChatGPT一些弱(ruo)点。

那么,如何让大模型的通病得到改善,可以試(shi)着从token、矢(shi)量存储、提示入(ru)手。

眾(zhong)所周知,GPT-4的上下文长度为8k,即最多可以使用提示符总数8192,大约是10页的文本。

正是token的限制,我们无法将几百(bai)个大型文檔(dang)直接放到LLM的提示中,让其从中进行推断。

目前,测试版的GPT-4最大已经支(zhi)持(chi)32k文本长度,token数为32768个,这也意味(wei)着上下文直接擴(kuo)大4倍(bei)。

此外,矢量储存有能够为AI创建(jian)「記(ji)憶(yi)」或知识庫(ku)的能力,可以在人与大模型交互时引用大量文档、歷(li)史聊(liao)天对话甚至代码。

提示就很好理解了,在对话时,直接告(gao)訴(su)模型「如果你不知道答案,就说不知道,不要试图编造一个答案」。

这样做有助(zhu)于減(jian)輕(qing)「幻觉」,以防(fang)止LLM 在上下文中没有明确提供必(bi)要数据时编造答案。

几乎(hu)最晚(wan)推出

ChatGPT誕(dan)生后,在國(guo)內(nei)外开啟(qi)了一场大模型競(jing)速賽(sai)。

从4月开始,国内大廠(chang)依次发布了一系列(lie)类ChatGPT大模型。

或许有许多人感到不解:人工智能第一股的科大讯飞,为什么不是最早(zao)推出类ChatGPT大模型呢?

的确,从时间节点上看,讯飞是比较晚的。

但,也只(zhi)是看起(qi)来晚。

从讯飞的整(zheng)个发展(zhan)过程中来看,大模型仅仅是人工智能历程中的一个阶段。

2014年,讯飞就启动讯飞超脑,一直在进行着认知智能技术的攻关和储备。

面向(xiang)未(wei)来十年,讯飞在2022年提出讯飞超脑2030计划,让機(ji)器懂知识、善学习、能进化(hua),让机器人走进每个家庭(ting),解决中国老年社(she)会的问题。

正是长期堅(jian)定AI赛道,科大讯飞才(cai)能快(kuai)速打(da)造出技术实力具有优勢(shi)的国产大模型,并且最有希(xi)望(wang)在中国率(lv)先实现智慧涌现。

为什么科大讯飞的大模型能做到官(guan)宣(xuan)即落(luo)地(di),并且叠(die)代速度如此之快?

去年12月份(fen),讯飞就已经开始籌(chou)备大模型的相关工作,能在数个月内,就取(qu)得如此快速的进步(bu) ,也是基于深厚(hou)的积累。

除此之外,讯飞还通过认知智能全(quan)国重点实验室(shi)牽(qian)头設(she)计了通用认知大模型评测体系,并与中科院(yuan)人工智能产学研创新联盟(meng)和长三角(jiao)人工智能产業(ye)鏈(lian)联盟共(gong)同探(tan)討(tao)形(xing)成了覆(fu)蓋(gai)7大类481个細(xi)分任(ren)務(wu)类型。这使得讯飞能在科学的评测体系中,腳(jiao)踏实地、系统地、科学地发展大模型。

所以说,看起来雖(sui)然晚,实际上未来可能会走得很远。

已有落地产品(pin)

上文说过,跟许多大模型比起来,讯飞星火认知大模型的差(cha)異(yi)就在于,会更垂(chui)一点,其他(ta)的大模型发得早,但在接入产品这一塊(kuai),并不是很完备。但讯飞已有成型的C端(duan)和B端落地應(ying)用产品。

聽(ting)见会写

以讯飞听见为例(li),在星火认知大模型的加持下,讯飞听见不仅可以快速将音(yin)频内容轉(zhuan)写成文稿(gao),还可以選(xuan)擇(ze)不同类型,包括工作待辦(ban)、工作计划、品宣文案等。

小编找(zhao)来了科大讯飞当天发布会的部分音频进行了实测,并选择了「新聞(wen)稿件」和「工作总结」。

这是就音频,星火给出的「新闻稿件」和「工作总结」。

导入音频后,在转写完成后,还可以选择对内容进行摘要总结、语篇(pian)規(gui)整,还有内容导出。

全文摘要如下:

在规整结果上,有趣的是,听见还会主动幫(bang)你去掉「廢(fei)话」,甚至有些话还帮忙(mang)改写更通順(shun)了。

从产业角度看,大模型+应用,才是大模型商(shang)业化的必经之路(lu)。

最初(chu),OpenAI在商业化落地上,也是没有明确的具体路徑(jing)的。

隨(sui)后,从摩(mo)根士(shi)丹(dan)利(li)让OpenAI定制的專(zhuan)屬(shu)GPT-4及私有服务器,以及专为金(jin)融(rong)从头構(gou)建的500億(yi)参数大语言模型BloombergGPT都可以看出,不同行业、不同业务场景(jing)中,对AI接入应用的需求(qiu),都呈(cheng)现出碎(sui)片化、多样化的特点。

明确了大模型+应用的优势,为了进一步提高大模型在细分行业的实用性,科大讯飞选择了采用「1+N」架(jia)构。

其中「1」是通用认知智能大模型算(suan)法研发及高效(xiao)训练底座(zuo)平臺(tai),「N」是应用于教育(yu)、醫(yi)療(liao)、人机交互、办公、翻譯(yi)、工业等多个行业領(ling)域(yu)的专用大模型版本。

最近的发布会上,科大讯飞已经亮相的「N」,即是首批(pi)獲(huo)「星火」加持的产品矩(ju)陣(zhen),包括讯飞AI学习机、讯飞听见、讯飞智能办公本、讯飞智能座艙(cang)、讯飞数字员工等应用成果。

由于科大讯飞已拥有智能录音筆(bi)、翻译笔、智能办公本、AI学习机等諸(zhu)多C端产品,将大模型能力下放到这些产品矩阵中,无疑会达到令(ling)人深刻的规模效应。

当然,星火能燎(liao)原也不能仅靠讯飞一己之力,据了解,讯飞还联合开发者推动大模型应用落地,共建人工智能「星火」生态。

首批来自36个行业的3000余(yu)家企(qi)业开发者将接入星火大模型,这很有一番(fan)春(chun)風(feng)吹(chui)星火的燎原之势,新一轮的产业變(bian)革(ge)也正因此在蓬(peng)勃(bo)发展。

参考資(zi)料:

https://xinghuo.xfyun.cn/desk返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:黑龙江省伊春西林区