地铁车厢里的广告,如何吸引你的眼球?

如何在地铁车厢里的广告中吸引眼球

一、色彩搭配

色彩是广告设计中最重要的要素之一。在地铁车厢里的广告中,色彩的搭配能够极大地引起人们的注意。比如,设计师可以采用强烈对比的颜色,例如红色和绿色、黑色和黄色等,这样的颜色搭配会让广告更加突出,也会吸引更多人的目光。

此外,设计师还可以通过颜色的饱和度、明度、深浅等方面,来制造出一种强烈的视觉冲击效果,提高广告的视觉吸引力。

二、文字内容

文字内容是广告传递信息的重要手段,因此需要思考文字的字体、大小、对齐方式等。字体要简洁易读,大小不宜过大或过小,对齐方式要整齐,不要让人产生紊乱的感觉。

同时,广告的文案也需要精心设计。设计师可以用简单、有趣、富有创意的语言表达广告内容,增加人们阅读和理解的兴趣,进而提高广告的转化率。

三、视觉元素

除了色彩和文字外,视觉元素也是广告设计中不可或缺的部分。例如图片、插图、图标等,能够为广告赋予更加生动形象的特点,使广告更具可读性和趣味性。

视觉元素的设计要简洁明了,画面要突出主题,同时要符合广告的宣传目的。如果设计师能够通过视觉元素和文字的结合,达到一定的幽默或创意效果,那么广告的宣传效果将会大大提高。

四、广告位置

广告位置也是吸引人们眼球的重要因素之一。在地铁车厢里,广告位置可以放置在人们乘坐车厢的正前方或正后方,这样车厢内的乘客会更容易注意到广告。

此外,广告的大小、形状、色彩等也应该与所处位置相适应。如果广告的大小、形状与周围环境不协调,那么人们的视线就很难被吸引到广告上。

总结归纳

地铁车厢里的广告设计要吸引人们的眼球,需要考虑色彩搭配、文字内容、视觉元素和广告位置等多个因素。色彩搭配要突出对比,文字内容要简洁、有趣、富有创意,视觉元素要体现生动形象,广告位置要与广告相协调。如果这些因素都能很好地结合起来,广告的宣传效果将会得到大大提高。

问答话题:

Q1:广告设计中哪些因素能够吸引人们的注意力?

广告设计中能够吸引人们注意力的因素有色彩搭配、文字内容、视觉元素和广告位置等多个方面。设计师可以通过设计这些因素,来提高广告的视觉吸引力,进而提高广告的宣传效果。

Q2:哪些位置的广告容易引起人们的注意?

在地铁车厢里,广告位置可以放置在人们乘坐车厢的正前方或正后方,这样车厢内的乘客会更容易注意到广告。

Q3:广告设计中需要考虑哪些因素?

广告设计中需要考虑色彩搭配、文字内容、视觉元素和广告位置等多个因素。如果能够很好地结合这些因素,提高广告的视觉吸引力,进而提高广告的宣传效果。

地铁车厢里的广告,如何吸引你的眼球?随机日志

深度扫描设备数据,快速解析设备数据,支持恢复数据类型持续增加,无需越狱,简单操作即可免费恢复微信聊天记录中的文字、图片、视频、语音消息、文件、交易记录、撤回消息等,恢复数据支持预览,支持导出保存,新增了问题反馈更多,新增了iTunes加密解锁功能,修复了部分已知BUG收起

1、专门为抖音运营打造的一个服务平台,它的实用性很强;

2、新增积分兑换文献王高级版功能,新增文献王Word模板类型插件,新增Ithenticate论文查重代查功能

3、录制麦克风的声音,录制电脑内部播放的声音,如录制电脑上播放的音乐或电影对白,录制自己与好友的QQ语音聊天内容或Skype通话内容,能够在进行QQ,Skype语音或视频通话或使用Skype拨打电话时自动开始录音

4、具有暂停/恢复功能,可以恢复崩溃的下载。

5、这里截图一样要安装插件,同理到了插件中心,选择一个60屏幕截图,然后点击安装;

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>新(xin)巨(ju)頭(tou)何(he)時(shi)誕(dan)生(sheng)?大(da)模(mo)型(xing)等(deng)待(dai)“分(fen)水(shui)嶺(ling)”

來(lai)源(yuan) | 零(ling)壹(yi)財(cai)經(jing)

作(zuo)者(zhe) |沈(shen)拙(zhuo)言(yan)

圖(tu)片(pian)来源:由(you)無(wu)界(jie) AI工(gong)具(ju)生成(cheng)

2023年(nian)以(yi)来,科(ke)技(ji)圈(quan)最(zui)熱(re)的(de)詞(ci)語(yu)就(jiu)是(shi)ChatGPT及(ji)其(qi)背(bei)後(hou)的大模型技術(shu)。

此(ci)前(qian)有(you)百(bai)度(du)文(wen)心(xin)壹(yi)言、阿(e)裏(li)雲(yun)通(tong)義(yi)千(qian)問(wen)、華(hua)為(wei)盤(pan)古(gu)、科大訊(xun)飛(fei)星(xing)火(huo)等,近(jin)期(qi)李(li)開(kai)復(fu)入(ru)局(ju)建(jian)立(li)零一萬(wan)物(wu)、火山(shan)引(yin)擎(qing)推(tui)出(chu)“火山方(fang)舟(zhou)”。短(duan)短數(shu)月(yue),各(ge)類(lei)企(qi)業(ye)研(yan)發(fa)和(he)发布(bu)大模型應(ying)用(yong)已(yi)成潮(chao)流(liu)。

國(guo)內(nei)10億(yi)級(ji)參(can)数規(gui)模以上(shang)大模型已超(chao)80個(ge),並(bing)且(qie)還(hai)在(zai)快(kuai)速(su)增(zeng)加(jia)。一場(chang)圍(wei)繞(rao)大模型的商(shang)业戰(zhan)爭(zheng)的備(bei)战氛(fen)围已经極(ji)为濃(nong)厚(hou)。

大巨头公(gong)司(si)也(ye)好(hao),小(xiao)巨人(ren)企业也罷(ba),都(dou)需(xu)要(yao)這(zhe)樣(yang)的動(dong)作展(zhan)現(xian)自(zi)身(shen)對(dui)前沿(yan)科技的敏(min)感(gan)度與(yu)長(chang)期以来的積(ji)累(lei)。早(zao)一步(bu)推出应用,便(bian)可(ke)早一日(ri)測(ce)試(shi)大模型与用戶(hu)交(jiao)互(hu)上的寶(bao)貴(gui)数據(ju),在未(wei)来競(jing)争中(zhong)“廣(guang)积糧(liang),图稱(cheng)王(wang)”。

大模型的關(guan)鍵(jian)的还是AI領(ling)域(yu)要素(su)——算(suan)法(fa)、算力(li)、数据,以及场景(jing)/应用。算法代(dai)表(biao)策(ce)略(lve),算力決(jue)定(ding)上限(xian)也設(she)置(zhi)了(le)門(men)檻(kan),数据等同(tong)軍(jun)粮也象(xiang)征(zheng)著(zhe)優(you)劣(lie)之(zhi)分。三(san)要素之外(wai),场景/应用代表出兵(bing)方向(xiang)。

“百模大战”一觸(chu)即(ji)发, 要素齊(qi)备的巨头公司是否(fou)會(hui)演(yan)變(bian)成技术能(neng)力的无限内卷(juan)?垂(chui)直(zhi)賽(sai)道(dao)的小巨头能否借(jie)助(zhu)大模型夯(hang)實(shi)自己(ji)的领先(xian)地(di)位(wei)?在獲(huo)得(de)门票(piao)的新玩(wan)家(jia)中,誰(shui)有可能是行(xing)业統(tong)治(zhi)地位的有力竞争者?

通用大模型“实力分水岭”未现

大模型的玩家主(zhu)要分为三类:一是在資(zi)源与场景上具备身位优勢(shi)的互聯(lian)網(wang)(百度、阿里、騰(teng)讯等)和產(chan)业巨头(中国電(dian)信(xin)与中国联通等),二(er)是專(zhuan)研AI的人工智(zhi)能公司(商湯(tang)、云從(cong)、光(guang)年之外等),最后一类則(ze)是以上海(hai)人工智能实驗(yan)室(shi)、复旦(dan)大學(xue)、哈(ha)爾(er)濱(bin)工业大学等为代表的科研院(yuan)所(suo)單(dan)位。

根(gen)据公开数据,截(jie)至(zhi)2023年7月初(chu),我(wo)国10亿级参数规模以上大模型已超80个,且还在快速增加。該(gai)参数量(liang)的大模型越(yue)多(duo),標(biao)誌(zhi)着竞争门槛將(jiang)逐(zhu)步拔(ba)高(gao)。

目(mu)前已经发布的大模型絕(jue)大多数屬(shu)於(yu)通用大模型,原(yuan)因(yin)主要有兩(liang)種(zhong):一是大模型竞争尚(shang)不(bu)明(ming)朗(lang),純(chun)粹(cui)技术層(ceng)面(mian)并未拉(la)开代差(cha),行业参与者都有機(ji)会称霸(ba)江(jiang)湖(hu);二是面向公眾(zhong)的应用型大模型仍(reng)未出现,缺(que)乏(fa)較(jiao)为明確(que)的方向指(zhi)引,在国内大模型的“Chat GPT时刻(ke)”出现前,投(tou)身通用大模型是既(ji)主动又(you)被(bei)动的无奈(nai)之選(xuan)。

何況(kuang),大模型领域极有可能走(zou)出一个新巨头。

周(zhou)鴻(hong)祎(yi)認(ren)为,大模型必(bi)須(xu)“通用”,只(zhi)有通用才(cai)能走進(jin)千家万户、賦(fu)能百行千业,进而(er)主導(dao)人工智能新革(ge)命(ming)。

話(hua)中未盡(jin)之處(chu)是,需要多少(shao)投入和配(pei)合(he)才能成为引领新革命的主导者。不管(guan)大模型是藍(lan)海还是紅(hong)海市(shi)场,必然(ran)要存(cun)在大魚(yu)领銜(xian)、小鱼配合的生態(tai)結(jie)構(gou),而目前大鱼和小鱼之間(jian)的实力分水岭仍未出现。

以當(dang)前局势看(kan),10亿参数规模的大模型可以視(shi)为入局门槛,100亿参数规模的大模型可认为具备逐鹿(lu)天(tian)下(xia)的能力,但(dan)即使(shi)是1000亿参数规模的大模型也遠(yuan)未達(da)到(dao)一騎(qi)绝塵(chen)的领先水平(ping)。

参数量并非(fei)决定战场局势的壓(ya)倒(dao)性(xing)力量,资源調(tiao)度能力、长期经验积累、大額(e)科研投入等因素都是大模型竞争中长期存在的核(he)心差異(yi)點(dian)。

要对标Open AI,需要看清(qing)Chat GPT爆(bao)发背后是微(wei)軟(ruan)在数据、算力、海量资金(jin)上的全(quan)面支(zhi)持(chi),才有了之后的厚积薄(bo)发。

大模型是长期投入的行业,簡(jian)单来說(shuo)就是“燒(shao)錢(qian)”。算力、算法与数据的积累非一夕(xi)之功(gong),模型发布之后还需要反(fan)复訓(xun)練(lian)、敏捷(jie)叠(die)代,最終(zhong)不斷(duan)演变为“成熟(shu)體(ti)”。

放(fang)到现实環(huan)境(jing)下,大模型的玩家是技术驅(qu)动还是利(li)益(yi)驱动?Open AI是当下全球(qiu)最知(zhi)名(ming)的大模型公司,即便手(shou)握(wo)Chat GPT这一爆款(kuan)产品(pin),其商业化(hua)能力仍然堪(kan)憂(you)。作为一家逼(bi)近300亿美(mei)元(yuan)市值(zhi)的科技企业,2023年身处AI浪(lang)潮中心,Open AI至今(jin)收(shou)入仍不過(guo)2亿美元。

初期投入只是起(qi)始(shi)花(hua)費(fei),之后每(mei)一次(ci)训练都需要真(zhen)金白(bai)銀(yin)往(wang)里砸(za),有多少公司能否接(jie)受(shou)大模型竞争中那(na)少得可憐(lian)的投资回(hui)報(bao)率(lv)?Chat GPT的成功,證(zheng)明了大模型在产品路(lu)徑(jing)上的打(da)通,但并不意(yi)味(wei)着商业层面的巨大成功。

至少在投入产出比(bi)层面,互联网巨头相(xiang)对优势更(geng)大,他(ta)們(men)有足(zu)夠(gou)的动力和资源去(qu)支撐(cheng)前期的战略性虧(kui)損(sun),一如(ru)当年的阿里云。

至于到底(di)烧钱要烧多久(jiu),何时才能看到喜(xi)人的投资回报,大公司不知道,創(chuang)业公司的VC也不知道。这是一场隨(sui)时可能離(li)场的豪(hao)賭(du),而籌(chou)碼(ma)动輒(zhe)数十(shi)亿美金。

对于“人有我优”的大模型玩家而言,优先探(tan)索(suo)应用层,及早开放测试,谁能积累更为珍(zhen)贵的交互数据,将是接下来竞争的破(po)局点。

垂直之需与垂直之困(kun)

通用大模型的角(jiao)逐,更多是基(ji)礎(chu)设施(shi)制(zhi)定權(quan)的争奪(duo),而垂直大模型,则是在特(te)定场景中依(yi)托(tuo)开源大模型或(huo)API接口(kou),在細(xi)分行业形(xing)成差异化竞争能力,更多聚(ju)焦(jiao)在场景应用。

在通用大模型的战场上,随着时间推进,一些(xie)力有不逮(dai)的玩家会逐步掉(diao)隊(dui),最终只会存在寥(liao)寥数个通用大模型,起到基础设施的作用。同时,这些大模型还面臨(lin)着同質(zhi)化问題(ti),应用层仍然要靠(kao)垂直大模型发力。

通用大模型像(xiang)是多个垂直大模型的集(ji)合,训练场景越多,通用大模型的“通用性”越強(qiang)。

作为国内最早发布类Chat GPT产品的公司,百度对大模型垂直应用层的需求(qiu)十分緊(jin)迫(po)。李彥(yan)宏(hong)表示(shi):“比大模型数量更重(zhong)要的是应用,是在垂直领域应用的突(tu)破。新的国際(ji)竞争战略关键点,不是有多少个大模型,而是大模型上有多少原生的应用,这些应用在多大程(cheng)度上提(ti)升(sheng)了生产效(xiao)率。”

按(an)照(zhao)李彦宏的比喻(yu),大模型尤(you)其是通用大模型就像是AI时代的操(cao)作系(xi)统,所有的应用都将围绕着大模型开发,其上是应用层,包(bao)括(kuo)各种各样的AI原生应用。

歸(gui)根结底,所謂(wei)的“通用”只是一个相对概(gai)念(nian),并不存在完(wan)全適(shi)用于所有领域、具备足够行业深(shen)度的通用大模型。以Chat GPT为例(li),真正(zheng)得以广泛(fan)应用的仍是一些容(rong)錯(cuo)率较高的行业,即便大模型給(gei)出的解(jie)决方案(an)出错,错誤(wu)也局限在较为有限的範(fan)围内。而在重工业、航(hang)天、醫(yi)療(liao)等场景中,一次错误所造(zao)成的损失(shi)不可估(gu)量,即Chat GPT不能滿(man)足特定场景的垂直性、专业性要求。

要兼(jian)顧(gu)垂直性与专业性要求,数据是硬(ying)傷(shang),数据深度足够且能形成穩(wen)定護(hu)城(cheng)河(he)的行业更少。这些行业的数据是否便于获得,已经获得的数据能否满足特定行业日新月异的要求,都很(hen)難(nan)具体評(ping)定。

互联网巨头擁(yong)有大量电商、社(she)交、搜(sou)索等网絡(luo)数据,但数据类型不够全面,数据质量也沒(mei)有保(bao)障(zhang),中文可供(gong)训练的语料(liao)还需要做(zuo)大量的挖(wa)掘(jue)工作。

近期在政(zheng)務(wu)、公共(gong)安(an)全、医疗等领域,垂直大模型正在陸(lu)續(xu)落(luo)地。例如,云知聲(sheng)在智慧(hui)医疗领域自研“山海”大模型,结合前端(duan)声音(yin)信號(hao)处理(li)、声紋(wen)識(shi)別(bie)、语音识别、语音合成等全棧(zhan)式(shi)智能语音交互技术,預(yu)計(ji)可提升医生的电子(zi)病(bing)歷(li)錄(lu)入效率超过400%,節(jie)約(yue)单个患(huan)者问診(zhen)时间超过40%,提升医生门诊效率超过66%。

拓(tuo)尔思(si)基于自有的公文、政策文件(jian)、政务辦(ban)事(shi)指南(nan)等数据作为专业训练数据,打造了政务专业大模型。

金融(rong)领域内,恒(heng)生电子2023年3月底开始筹劃(hua)、设计金融大模型产品。6月末(mo),恒生电子和旗(qi)下子公司恒生聚源发布基于大语言模型技术打造的数智金融新品——金融智能助手光子和全新升级的智能投研平臺(tai)WarrenQ,恒生电子金融行业大模型LightGPT也首(shou)次对外亮(liang)相。

腾讯这种具备多个行业资源的互联网巨头则是多面下註(zhu)。在6月下旬(xun),腾讯公布的MaaS服(fu)务解决方案覆(fu)蓋(gai)了金融、文旅(lv)、政务、教(jiao)育(yu)等10个行业,共有超50个解决方案。

同时,垂直大模型所需要的数据往往并不局限在本(ben)行业,某(mou)些业务也許(xu)需要另(ling)一个或多个行业的数据整(zheng)合,其模型训练和应用就依賴(lai)于企业的跨(kua)业合作或者互联网巨头的资源整合。

算力:力大磚(zhuan)飞?

在19世(shi)紀(ji)美国西(xi)部(bu)的淘(tao)金热中,淘金者能真正賺(zhuan)到钱是概率性事件,而賣(mai)鏟(chan)子的人赚到钱则是必定性结果(guo)。

AI淘金热中,大模型的战场局势还不明朗,玩家尚在前赴(fu)后繼(ji),但“卖铲人”已经贏(ying)麻(ma)了。英(ying)偉(wei)达靠AI芯(xin)片与大模型的潮流拉开了与竞争对手AMD的差距(ju),市值步入“万亿美元俱(ju)樂(le)部”。

Open AI CEO薩(sa)姆(mu)·奧(ao)尔特曼(man)提出了新版(ban)摩(mo)尔定律(lv),即全球AI的運(yun)算量每隔(ge)18个月就会提升一倍(bei)。維(wei)持这些运算量需要AI训练芯片支持,而这一领域英伟达的市场份(fen)额超过90%。

英伟达的AI芯片产品被全球各大科技企业瘋(feng)狂(kuang)搶(qiang)購(gou):2023年3月,微软宣(xuan)布已幫(bang)助OpenAI建设了一个新计算中心,配置了数万塊(kuai)A100;5月,Google推出了一个拥有2.6万块H100的计算集群(qun)ComputeEngineA3。另外,据国金证券(quan)信息(xi),字(zi)节跳(tiao)动今年已訂(ding)购了超过10亿美元的GPU,到貨(huo)和没到货的A100与H800预计有10万块。腾讯发布的腾讯云新版高性能计算服务中心也采(cai)用了上万块H800芯片。

英伟达CFO克(ke)雷(lei)斯(si)表示,目前AI 算力市场的需求已经超出了公司对未来数个季(ji)度的预期,订单已经多到做不过来了。

当然,英伟达赚的钱,我们羨(xian)慕(mu)也没用。

国内GPU赛道也在迎(ying)头追(zhui)趕(gan),既有互联网巨头自研AI芯片,如百度AI芯片昆(kun)侖(lun)、腾讯视頻(pin)处理芯片“滄(cang)海”和AI芯片“紫(zi)霄(xiao)等,也湧(yong)现出燧(sui)原科技、天数智芯、摩尔線(xian)程等研发通用GPU的新興(xing)公司。通用GPU用于各种通用任(ren)务,包括具有高度的并行计算能力和大规模的计算核心,是高性能GPU的“下位替(ti)代——平行替代”的主要产品,近年来也有大进步,与高性能GPU的差距也在逐步縮(suo)小中。

中国工程院院士(shi)鄔(wu)賀(he)銓(quan)建議(yi),在国家科技与产业计划的協(xie)调下合理分工形成算力合力,开放国家实验室的算力平台支持各类大模型训练,同时建议組(zu)建算力联盟(meng),集中已有高檔(dang)GPU的算力资源,提供大模型数据训练所需算力。

除(chu)了高性能GPU之外,成本更低(di)的算力平台也被认为是新的市场机会。近期九(jiu)章(zhang)云极便透(tou)露(lu)将继续与国资云廠(chang)商合作,把(ba)市场上大量的智算中心納(na)入合作夥(huo)伴(ban)范疇(chou),向客(ke)户提供集软硬件于一体的AI模型研发平台,客户的费用将与算力綁(bang)定。

算力是发展大模型的基础,是必要條(tiao)件而非充(chong)分条件,算力所能发揮(hui)的最大作用仍取(qu)决于使用方向。只有算法创新与数据资源建设、训练框(kuang)架(jia)迭代齐头并进,才有创造“力大砖飞”的可能性。

政策:关键时刻的引导与规范

AI大爆炸(zha)时期,恰(qia)逢(feng)我国算法治理与算法备案的关键时刻。

早在2021年,《关于加强互联网信息服务算法綜(zong)合治理的指导意見(jian)》就把算法备案管理作为監(jian)管体系完善(shan)的重要一环,此后的《互联网信息服务算法推薦(jian)管理规定》和《互联网信息服务深度合成管理规定》都明确规定或提及,“具有輿(yu)論(lun)属性或者社会动員(yuan)能力的算法推荐服务提供者应当履(lv)行备案手续”。

2023年4月,国家网信办起草(cao)了《生成式人工智能服务管理办法(征求意见稿(gao))》,公开征求意见。6月,国务院印(yin)发的《国务院2023年度立法工作计划》顯(xian)示,人工智能法草案等预备提請(qing)全国人大常(chang)委(wei)会審(shen)议。

《生成式人工智能服务管理办法(征求意见稿)》提及,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申(shen)报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注銷(xiao)备案手续。

这也是当前尚未有大模型产品面向公众的原因之一。

南开大学法学院副(fu)院长、中国新一代人工智能发展战略研究(jiu)院特约研究员陳(chen)兵教授(shou)认为,监管前置并不必然会损害(hai)技术创新,但需要注意的是,由于事前审查(zha)会在一定程度上增加企业的合规成本,若(ruo)事前审查范围设置不当,可能会抑(yi)制生成式AI产品的研发与训练效能,客觀(guan)上会导致(zhi)生成式AI发展的降(jiang)速。

由于人工智能風(feng)險(xian)事前无法极为完善的预估,事后监管又有可能造成巨大损害,故(gu)而当前我国对人工智能发展采用全流程监管。

在全流程监管的规范下,大模型玩家的合规成本无疑(yi)会增加,备案制又促(cu)使着局内玩家优先謀(mou)求备案以将产品早一步推广至市场,客观上加速大浪淘沙(sha)的速度。法规的逐步完善伴随着行业洗(xi)牌(pai)、弱(ruo)者掉队的过程,也能讓(rang)撥(bo)云见日的时刻早一点到来。返(fan)回搜狐(hu),查看更多

責(ze)任編(bian)輯(ji):

发布于:湖北恩施恩施市