中国有名的创意广告

中国有名的创意广告

作为一个经验丰富的销售人员,我对中国的创意广告也非常了解。

其中一则广告是来自一家知名酒类品牌,该广告的主题是“再见青春”,它将一系列的场景和情感描绘得非常深刻,广告创意非常出色。首先,广告以一个年轻人的视角呈现,通过回想自己的青春时光,引发观众的共鸣。接着,广告通过一系列的场景刻画,包括球场上的激情,大学校园的浪漫,夜店的疯狂,以及和亲人的温馨时光,将青春的各种情感展现得淋漓尽致。最后,广告以倒计时结束,暗示着青春不再,但品牌在青春的回忆中永存。

一杯啤酒

除此之外,另一则广告来自一家知名的互联网公司。这则广告的主题是“用技术点亮生活”,非常贴合当今社会的发展。广告的核心是一位普通的年轻人,他利用互联网的便利和智慧,帮助生活中的他人,解决各种问题。广告通过一系列的场景呈现,如帮助老人购物,帮助小朋友学习,帮助外卖小哥找到目的地等等,将科技与人性完美结合,展现了品牌的社会责任感。

科技

这些创意广告的成功,离不开营销团队的精心策划和创意构思。同时,广告必须严格符合中国的广告法,避免虚假宣传和误导消费者。只有在创意和合法性的基础上,广告才能真正发挥它的价值,为品牌带来更多的商业价值。

中国广告法规

随着广告市场的不断扩大,中国的广告法规也越来越完善。广告法规是保护消费者权益的重要法律,也是广告从业者必须遵守的规定。

首先,广告必须真实。广告内容必须真实准确,不得夸大或者虚假宣传。例如,广告不能声称某种产品能够治愈任何疾病,也不能夸大产品的功效。

法律

其次,广告不得误导。广告不得采用虚假或者欺骗性的手法,误导消费者购买产品或者服务。例如,广告不能将自己的产品与其他产品相比较,而在比较时隐藏自己的缺点。

最后,广告不得违反社会公德。广告不得包含恶意攻击、淫秽、低俗等内容,同时广告不得涉及国家机密或者危害国家安全的内容。

结论

在中国广告市场竞争激烈的环境下,创意广告成为了品牌塑造和营销的重要手段。但在创作广告时,必须严格遵守中国的广告法规,保证广告的真实、合法、诚信和社会责任,这样才能够为品牌带来更多的商业价值。同时,只有不断提高广告创作的创造力和创新性,才能够在市场竞争中获得更好的地位。

广告

中国有名的创意广告随机日志

我们点击上方的【选项】,在选项窗口里,切换到【常规设置】,在接管浏览器中,勾选你电脑里的浏览器,当然了如果没有则可以自行添加。

1、•修正:仅使用密码AppLock,启动时数据库列表闪烁可见[谢谢,约瑟夫]

2、儿童经典古诗集:言简易懂的译文,拼音标识,让孩子赢在学习的起跑线上,早一步学习课本知识。

3、·一机一拍上线,每台手机都看得到,想买哪一台就买哪一台

4、新增小工具聚合文章可以自定义限制多少天内发布的文章,让文章列表功能指数级增长

5、谢谢你用这个主意。现在您可以使用iOS0中的应用程序+

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>能(neng)說(shuo)會(hui)唱(chang),AudioGPT驚(jing)艷(yan)亮(liang)相(xiang)!浙(zhe)大(da)、北(bei)大、CMU等(deng)提(ti)出(chu)全(quan)新(xin)音(yin)頻(pin)理(li)解(jie)與(yu)生(sheng)成(cheng)系(xi)統(tong)

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):好(hao)困(kun)

【新智元導(dao)讀(du)】近(jin)日(ri),來(lai)自(zi)浙大、北大、CMU和(he)人(ren)大的(de)研(yan)究(jiu)人員(yuan)提出了(le)壹(yi)種(zhong)全新的音频理解与生成系统AudioGPT。不(bu)僅(jin)能夠(gou)實(shi)現(xian)跨(kua)模(mo)態(tai)轉(zhuan)換(huan),以(yi)及(ji)音频模态的理解、生成,還(hai)能能够解決(jue)20+种多(duo)語(yu)种、多模态的AI音频任(ren)務(wu)。

最(zui)近幾(ji)個(ge)月(yue),ChatGPT、GPT-4橫(heng)空(kong)出世(shi),火(huo)爆(bao)出圈(quan),大型(xing)语言(yan)模型 (LLM) 在(zai)语言理解、生成、交(jiao)互(hu)和推(tui)理方(fang)面(mian)表(biao)现出的非(fei)凡(fan)能力(li),引(yin)起(qi)了學(xue)界(jie)和業(ye)界的極(ji)大關(guan)註(zhu),也(ye)讓(rang)人們(men)看(kan)到(dao)了LLM在構(gou)建(jian)通(tong)用(yong)人工(gong)智能 (AGI) 系统方面的潛(qian)力。

现有(you)的GPT模型具(ju)有极高(gao)的语言生成能力,是(shi)目(mu)前(qian)最為(wei)先(xian)進(jin)的自然(ran)语言處(chu)理模型之(zhi)一,廣(guang)泛(fan)應(ying)用於(yu)對(dui)話(hua)、翻(fan)譯(yi)、代(dai)碼(ma)生成等的自然语言处理領(ling)域(yu)。

除(chu)了書(shu)面语言,用戶(hu)在自然对话中(zhong)主(zhu)要(yao)使(shi)用口(kou)语(Spoken Language),而(er)傳(chuan)统大语言模型卻(que)無(wu)法(fa)勝(sheng)任音频理解与生成任务:

GPT模态限(xian)制(zhi)

用户在自然对话中主要使用口语,对口语理解与合(he)成有极大需(xu)求(qiu),而單(dan)模态GPT不能滿(man)足(zu)对音频(语音、音樂(le)、背(bei)景(jing)音、3D说话人)模态的理解、生成需求。

音频數(shu)據(ju)、模型相对少(shao)

基(ji)礎(chu)模型(Foundation Model)少或(huo)交互性(xing)差(cha)。相較(jiao)于文(wen)本(ben)模态,用于重(zhong)新訓(xun)練(lian)语音多模态GPT的数据较少。

用户交互性差

用户广泛的使用语音助(zhu)手(shou)如(ru)Siri、Alexa基于自然对话高效(xiao)地(di)完(wan)成工作(zuo)。然而目前GPT之間(jian)的交互大多根(gen)据鍵(jian)盤(pan)輸(shu)入(ru)的文本,交互性差,口语交互更(geng)能拉(la)进和用户之间的关系,提升(sheng)模型易(yi)用性。

最近,浙江(jiang)大学、北京(jing)大学、卡(ka)內(nei)基梅(mei)隆(long)大学和中國(guo)人民(min)大学的研究人员針(zhen)对以上(shang)難(nan)題(ti),提出了全新的音频理解与生成系统AudioGPT。

AudioGPT以ChatGPT充(chong)當(dang)負(fu)責(ze)对话与控(kong)制的大腦(nao),语音基础模型協(xie)同(tong)以完成跨模态转换、以及音频(语音、音乐、背景音、3D说话人)模态的理解、生成,能够解决20+种多语种、多模态的AI音频任务。

論(lun)文地址(zhi):https://arxiv.org/pdf/2304.12995.pdf

Github:https://github.com/AIGC-Audio/AudioGPT

Huggingg Face: https://huggingface.co/spaces/AIGC-Audio/AudioGPT

聽(ting)覺(jiao)效果(guo)超(chao)炫(xuan)

现在,HuggingGPT增(zeng)加(jia)了Gradio演(yan)示(shi):

话不多说,咱(zan)们直(zhi)接(jie)看一个AudioGPT对话的例(li)子(zi),包(bao)括(kuo)裏(li)面保(bao)含(han)了文本、圖(tu)像(xiang)和语音三(san)种模态的输入,AudioGPT能理解不同模态的输入,生成結(jie)果也能以文本、图像、音频相结合的方式(shi)展(zhan)现給(gei)用户。

语音

Q1: Generate a speech with text"here we go".

A1:

Generate a speech with text"here we go"音频:进度(du)條(tiao)00:00 00:00 後(hou)退(tui)15秒(miao)倍(bei)速(su) 快(kuai)进15秒

Q2: Transcribe this speech.

A2: Here we go.

Q3: Separate each speech from the speech mixture.

Separate each speech from the speech mixture.(Q)音频:进度条00:00 00:11 后退15秒倍速 快进15秒

A3:

Separate each speech from the speech mixture.(A)音频:进度条00:00 00:22 后退15秒倍速 快进15秒

音乐

Q4: Please generate a piece of singing voice. Text sequence is 小(xiao)酒(jiu)窩(wo)長(chang)睫(jie)毛(mao)AP是妳(ni)最美(mei)的記(ji)號(hao). Note sequence is C#4/Db4 | F#4/Gb4 | G#4/Ab4 | A#4/Bb4 F#4/Gb4 | F#4/Gb4 C#4/Db4 | C#4/Db4 | rest | C#4/Db4 | A#4/Bb4 | G#4/Ab4 | A#4/Bb4 | G#4/Ab4 | F4 | C#4/Db4. Note duration sequence is 0.407140 | 0.376190 | 0.242180 | 0.509550 0.183420 | 0.315400 0.235020 | 0.361660 | 0.223070 | 0.377270 | 0.340550 | 0.299620 | 0.344510 | 0.283770 | 0.323390 | 0.360340.

A4:

Please generate a piece of singing voice.音频:进度条00:00 00:05 后退15秒倍速 快进15秒

音效

Q5: Generate an audio of a piano playing.

A5:

Generate an audio of a piano playing.音频:进度条00:00 00:09 后退15秒倍速 快进15秒

Q6: Give me the deion of this audio.

Give me the deion of this audio.音频:进度条00:00 00:09 后退15秒倍速 快进15秒

A6: The audio is recording of a goat bleating nearby several times.

3D说话人

Q7: Generate a talking human portrait video.

A7:

已(yi)关注

关注

重播(bo)分(fen)享(xiang)贊(zan)

关閉(bi)

觀(guan)看更多

更多

正(zheng)在加載(zai)

正在加载

退出全屏(ping)

視(shi)频加载失(shi)敗(bai),請(qing)刷(shua)新頁(ye)面再(zai)試(shi)

刷新

视频詳(xiang)情(qing)

此(ci)外(wai),论文中还有一个多輪(lun)对话与上下(xia)文理解的例子:

AudioGPT语音模型在现有模型中具有不同的優(you)勢(shi):

相较于文本GPT:

ChatGPT、GPT4等语言模型側(ce)重于自然语言处理领域,在多模态理解与合成上福(fu)利(li)少了一些(xie),AudioGPT則(ze)將(jiang)重點(dian)放(fang)在了音频多模态的理解与生成。

相较于Siri等檢(jian)索(suo)模型:

与簡(jian)单检索並(bing)以语音回(hui)復(fu)检索模型相比(bi),AudioGPT強(qiang)大的生成式对话,使得(de)用户能够更加实時(shi)地獲(huo)取(qu)和处理与内容(rong)相关的音频。

相较于视觉任务GPT:

图像不存(cun)在像音频一樣(yang)的语种分類(lei),音频中存在不同语种:如中文、英(ying)文、法语等,AudioGPT还需要进行(xing)语种管(guan)理。

技(ji)術(shu)原(yuan)理

AudioGPT在收(shou)到用户请求时使用ChatGPT进行任务分析(xi),根据语音基础模型中可(ke)用的功(gong)能描(miao)述(shu)選(xuan)擇(ze)模型,用选定(ding)的语音基础模型執(zhi)行用户指(zhi)令(ling),并根据执行结果匯(hui)總(zong)響(xiang)应。借(jie)助ChatGPT强大的语言能力和眾(zhong)多的语音基础模型,AudioGPT能够完成几乎(hu)所(suo)有语音领域的任务。

可以说,AudioGPT为走(zou)向(xiang)语音通用人工智能開(kai)辟(pi)了一条新的道路(lu)。

具體(ti)来说,AudioGPT運(yun)行過(guo)程(cheng)可以分成4个階(jie)段(duan):模态转化(hua)、任务分析、模型分配(pei)和回复生成。

截(jie)至(zhi)目前,AudioGPT涵(han)蓋(gai)了语音識(shi)別(bie)、语音合成、语音翻译、语音增强、语音分離(li)、音频字(zi)幕(mu)、音频生成、歌(ge)聲(sheng)合成等任务。

实驗(yan)结果證(zheng)明(ming)了AudioGPT在处理多模态信(xin)息(xi)和复雜(za)AI任务方面的强大能力。

目前多模态的LLM層(ceng)出不窮(qiong),Visual ChatGPT,HuggingGPT等模型吸(xi)引了越(yue)来越多的关注,然而如何(he)測(ce)評(ping)多模态LLM模型也成了一大难点。

为了解决這(zhe)一难点,研究人员为多模态LLM的性能评估(gu)設(she)計(ji)了测评準(zhun)则和测评过程。具体来说,AudioGPT提出從(cong)三个方面测评多模态LLM:

一致(zhi)性(Consistency):

度量(liang)AudioGPT是否(fou)正確(que)的理解用户意(yi)图,并为之分配所需的模型

穩(wen)定性(Capabilitity):

度量基础的语音模型在其(qi)特(te)定任务上的性能表现

魯(lu)棒(bang)性(Robustness):

度量AudioGPT是否能正确的处理一些极端(duan)的例子

针对一致性,研究人员设计了一套(tao)基于人工测评的流(liu)程。如下图所示:

针对稳定性,AudioGPT調(tiao)研了各(ge)语音基础模型在单任务领域的性能表现。

针对鲁棒性,研究人员从四(si)个方面进行评估:

多轮对话的稳定性:

多模态LLM应該(gai)具備(bei)处理多轮对话的能力并且(qie)能处理上下文关系

不支(zhi)持(chi)的任务:

目前多模态LLM并非萬(wan)能的,当收到无法解决的请求时,多模态LLM也应该给予(yu)用户反(fan)饋(kui)

錯(cuo)誤(wu)处理:

多模态基础模型可能由(you)于不同的原因(yin)而失败,例如不支持的參(can)数或不支持的输入格(ge)式。在这种情況(kuang)下,多模态 LLM需要向用户提供(gong)合理的反馈,以解釋(shi)遇(yu)到的問(wen)题并提出潜在的解决方案(an)

上下文中斷(duan):

多模态LLM被(bei)期(qi)望(wang)处理不在邏(luo)辑序(xu)列(lie)中的查(zha)詢(xun)。例如,用户可能会在查询序列中提交隨(sui)機(ji)查询,但(dan)会繼(ji)續(xu)执行具有更多任务的先前查询

網(wang)友(you)熱(re)评

最后,項(xiang)目剛(gang)刚开源(yuan),可以在Github和Huggingface体验。对于这个新工具的誕(dan)生,网友们很(hen)是興(xing)奮(fen),有人表示:

AudioGPT是大语言模型在音频处理领域的福利。

还有网友認(ren)为,五(wu)音不全的也可以借助AudioGPT唱歌了:

有网友稱(cheng),期待(dai)在个人PC上也能用到这样的模型,将能够創(chuang)造(zao)出豐(feng)富(fu)多样的音视频内容。

参考(kao)資(zi)料(liao):

https://arxiv.org/abs/2304.12995返(fan)回搜(sou)狐(hu),查看更多

责任编辑:

发布于:新疆昌吉玛纳斯县