不只是女性!钻石广告的受众群体有哪些?

不只是女性!钻石广告的受众群体有哪些?

钻石一向是世界上最珍贵的贵重石之一,是一件每个人都喜欢的贴身物品。而在广告市场上,钻石广告也是占据重要地位的一种广告形式。传统的钻石广告通常是针对女性的,但现在这一形式已经被打破了,不只是女性,钻石广告的受众群体已经变得更加多元化。接下来,我们将从四个方面对新标题进行详细阐述。

高收入人群

钻石广告的主要目标消费群体是高收入人群。这一群体通常有足够的购买力,对高贵珠宝的需求也比较高。这类人一般注重品质和品牌,因此钻石广告常常与高端品牌搭配,以此提升钻石的价值和地位。例如,蒂芙尼的广告中,往往会出现高端的珠宝和时尚元素,这让消费者能够更加容易地将这些钻石广告与高品质的珠宝品牌联系起来。

除此之外,这一群体也比较注重生活品质,是旅游、酒店、飞机、游艇等豪华消费品的主要消费者。因此,钻石广告也常常出现在各种奢侈品杂志和社交媒体上,吸引高端消费者的目光。

年轻人群体

虽然传统的钻石广告主要针对女性,但现在年轻人群体也成了钻石广告的重要消费者。这一群体不仅仅是在购买婚戒时考虑钻石,同时也会对钻石类的珠宝品牌产生兴趣。这往往与他们追求新鲜感和时尚感有关。年轻人不仅对品质和品牌感兴趣,更加注重与自己的个性搭配。因此,钻石广告在年轻消费者中的出现,通常通过独特的设计来吸引他们的注意力,并提高品牌的认知度和价值。例如,周杰伦代言的钻石品牌光彩,就在广告中注重强调年轻,时尚的品牌形象,吸引了年轻消费者的目光。

男性群体

虽然女性是钻石广告的主要消费者,但男性也成了钻石广告的受众。男性通常会在特殊场合(如求婚)购买钻石,因此钻石广告也需要考虑如何吸引男性的注意力。 钻石广告在男性群体中的呈现,往往强调关键事件(如情人节、圣诞节等)以及男性与女性之间的爱情故事。例如,卡地亚的广告以发现真爱的主题出现,强调爱情,提醒男性为他们的爱人购买高质量的钻石,以表达他们的爱与重视。

家庭主妇以及家庭中的男女

尽管高收入人群、年轻人和男性是钻石广告的主要目标受众,但是家庭主妇以及家庭中的男女也是广告中的重要受众。他们会在购买礼物(如生日礼物、结婚纪念日礼物等)时选择钻石,因此,广告也需要考虑到这一群体的需求。 钻石广告在这一消费群体中的呈现,往往强调珍贵、永恒和对家庭的承诺。例如,梁咏琪代言的钻石品牌周大福,通常在广告中呈现出家庭中祖孙三代的场景,传达钻石的永恒价值和珍贵程度。

总结

尽管传统的钻石广告主要针对女性,随着社会的变化和消费者需求的增加,钻石广告已经涵盖了更广泛的受众。广告根据不同目标受众的需求和消费心理,采用了不同的策略和呈现形式。无论是高收入人群,年轻人,男性或家庭主妇,钻石广告都将以最合适的方式呈现,使其符合不同消费群体的需求和理念。此外,钻石广告的目标受众不断扩大和变化,也反映出了消费者需求的变化,促使广告商更加注重消费者的多样化和个性化需求。

问答话题

1. 钻石广告的消费者群体是否只限于高收入人群?

不完全是。虽然高收入人群是钻石广告的主要消费群体,但随着年轻人、男性和家庭主妇等消费群体的消费需求的增加,钻石广告也已经涵盖了更广泛的受众。

2. 钻石广告如何吸引不同年龄段的受众?

钻石广告在呈现形式上,会根据不同年龄段的受众,采用不同的策略和呈现形式。例如,在年轻人群体中,广告会更加注重钻石的时尚感和个性化,强调品牌的新潮和独特。而在家庭主妇和家庭中的男女中,广告会更加注重珍贵、永恒和对家庭的承诺,以此体现钻石的重要价值和地位。

不只是女性!钻石广告的受众群体有哪些?特色

1、招收弟子,打工置业异界修真黑工坊,打造完整修真资源生态链;

2、游戏最多可以与五人组队;

3、如果颜色不同就会失败结束,需要时刻注意小球的颜色。

4、打败你的高分和人与人之间的竞争,在世界上打最高分!

5、游戏中的前因后果介绍的都非常清楚,每一个案件都是独立的案子。

不只是女性!钻石广告的受众群体有哪些?亮点

1、所以在这里需要更加慎重完成更多不同的挑战冒险,享受更多游戏体验

2、最新的活动预告,都是会根据海报的形式在软件内呈现的;

3、领先市面上赛车手游的图形和外观。

4、丰富的游戏剧情,让你体验换装的无限乐趣;

5、经典的美食题材经营模式,自由的研究各种美食;

zhaoshoudizi,dagongzhiyeyijiexiuzhenheigongfang,dazaowanzhengxiuzhenziyuanshengtailian;youxizuiduokeyiyuwurenzudui;ruguoyansebutongjiuhuishibaijieshu,xuyaoshikezhuyixiaoqiudeyanse。dabainidegaofenherenyurenzhijiandejingzheng,zaishijieshangdazuigaofen!youxizhongdeqianyinhouguojieshaodedoufeichangqingchu,meiyigeanjiandoushidulideanzi。讓(rang)AI學(xue)會(hui)打(da)王(wang)者(zhe),有(you)什(shen)麽(me)用(yong)?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】從(cong)圍(wei)棋(qi)到(dao)遊(you)戲(xi),DeepMind把(ba)人(ren)類(lei)高(gao)手(shou)挨(ai)個(ge)虐(nue)了(le)壹(yi)遍(bian)。但(dan)這(zhe)个游戏AI,从一群(qun)王者中(zhong)「悟(wu)」出(chu)了一些(xie)新東(dong)西(xi)。

11月(yue)28日(ri),NeurIPS 2022正(zheng)式(shi)開(kai)幕(mu)。

作(zuo)為(wei)目(mu)前(qian)全(quan)球(qiu)最(zui)負(fu)盛(sheng)名(ming)的(de)人工(gong)智能(neng)盛会之(zhi)一,NeurIPS在(zai)每(mei)年(nian)年末(mo)都(dou)是(shi)計(ji)算(suan)機(ji)科(ke)学領(ling)域(yu)矚(zhu)目的焦(jiao)點(dian)。被(bei)NeurIPS接(jie)收(shou)的論(lun)文(wen),代(dai)表(biao)著(zhe)當(dang)今(jin)神(shen)經(jing)科学和(he)人工智能研(yan)究(jiu)的最高水(shui)平(ping),也(ye)反(fan)映(ying)着行(xing)業(ye)趨(qu)勢(shi)的變(bian)化(hua)。

有趣(qu)的是,这屆(jie)「參(can)賽(sai)選(xuan)手」們(men)的研究似(si)乎(hu)都對(dui)「游戏」情(qing)有獨(du)鐘(zhong)。

比(bi)如(ru),李(li)飛(fei)飞團(tuan)隊(dui)基(ji)於(yu)Minecraft游戏環(huan)境(jing)的MineDojo,就(jiu)拿(na)下(xia)了最佳(jia)數(shu)據(ju)集(ji)和基準(zhun)论文獎(jiang)。依(yi)托(tuo)游戏的开放(fang)性(xing),研究人員(yuan)可(ke)以(yi)在MineDojo中通(tong)過(guo)各(ge)種(zhong)类型(xing)的任(ren)務(wu)对智能體(ti)進(jin)行訓(xun)練(lian),从而(er)让AI具(ju)有更(geng)加(jia)通用的能力(li)。

而通过嚴(yan)苛(ke)的錄(lu)取(qu)率(lv),同(tong)樣(yang)是在游戏领域收录的另(ling)一篇(pian)论文,可能跟(gen)很(hen)多(duo)游戏玩(wan)家(jia)都相(xiang)關(guan)。

畢(bi)竟(jing),誰(shui)沒(mei)玩过王者呢(ne)。

论文《<王者榮(rong)耀(yao)>競(jing)技(ji)場(chang):竞爭(zheng)強(qiang)化学習(xi)的泛(fan)化环境》

地(di)址(zhi):https://openreview.net/pdf?id=7e6W6LEOBg3

文中,研究人员提(ti)出了一个基于MOBA游戏《王者荣耀》的測(ce)試(shi)环境。目的嘛(ma),其(qi)實(shi)和MineDojo类似——训练AI。

为何(he)MOBA类游戏环境被青(qing)睞(lai)?

自(zi)DeepMind推(tui)出AlphaGo开始(shi),游戏作为擁(yong)有高自由(you)度(du)、高復(fu)雜(za)性的擬(ni)真(zhen)环境,早(zao)已(yi)成(cheng)为了AI研究和实驗(yan)的重(zhong)要(yao)选擇(ze)。

然(ran)而,相比于能夠(gou)不(bu)斷(duan)从开放式任务中学习的人类,在較(jiao)低(di)复杂度的游戏裏(li)训练出的智能体,並(bing)不能將(jiang)自己(ji)的能力泛化到特(te)定(ding)的任务之外(wai)。簡(jian)單(dan)來(lai)說(shuo)就是,这些AI只(zhi)能下下棋,或(huo)者打打古(gu)早的雅(ya)達(da)利(li)游戏。

为了开發(fa)出能够更加「泛用」的AI,学界(jie)的研究重心(xin)也开始逐(zhu)漸(jian)从棋盤(pan)类游戏轉(zhuan)向(xiang)了更复杂的游戏,包(bao)括(kuo)非(fei)完(wan)美(mei)信(xin)息(xi)博(bo)弈(yi)游戏(比如撲(pu)克(ke))以及(ji)策(ce)略(lve)类游戏(比如MOBA和RTS游戏)。

同時(shi),正如李飞飞团队在獲(huo)奖论文里所(suo)言(yan),想(xiang)要让智能体能够泛化到更多的任务之中,训练环境還(hai)需(xu)要能提供(gong)足(zu)够多的任务。

憑(ping)借(jie)着AlphaGo及其衍(yan)生(sheng)版(ban)AlphaZero打遍围棋圈(quan)無(wu)敵(di)手的DeepMind,很快(kuai)也意(yi)識(shi)到了这一点。

2016年,DeepMind便(bian)聯(lian)合(he)暴(bao)雪(xue),基于空(kong)間(jian)复杂度为10的1685次(ci)方(fang)的《星(xing)際(ji)争霸(ba) II》,推出了「星际争霸 II 学习环境」(StarCraft II Learning Environment,SC2LE),为研究人员提供了智能体的行動(dong)和奖勵(li)規(gui)範(fan),以及一个开源(yuan)的Python界面(mian),用于與(yu)游戏引(yin)擎(qing)进行通信。

而在國(guo)內(nei)也有一个資(zi)質(zhi)極(ji)佳的「AI训练场」——

作为知(zhi)名的MOBA游戏,玩家在《王者荣耀》中的动作狀(zhuang)態(tai)空间高达10的20000次方,遠(yuan)远大(da)于围棋及其他(ta)游戏,甚(shen)至(zhi)超(chao)过整(zheng)个宇(yu)宙(zhou)的原(yuan)子(zi)總(zong)数(10的80次方)。

和DeepMind一样,騰(teng)訊(xun)的AI Lab也联合《王者荣耀》,共(gong)同开发了更加適(shi)合进行AI研究的「王者荣耀AI开放研究环境」。

?

目前,「王者荣耀AI开放研究环境」包含(han)了1v1对戰(zhan)环境与baseline算法(fa)模(mo)型,并支(zhi)持(chi)20位(wei)英(ying)雄(xiong)的鏡(jing)像(xiang)对战任务以及非镜像类对战任务。

具体来说,「王者荣耀AI开放研究环境」在只考(kao)慮(lv)雙(shuang)方英雄选择條(tiao)件(jian)下,可以支持20×20=400对战子任务。如果(guo)算上(shang)召(zhao)喚(huan)師(shi)技能,将会有40000种子任务。

为了让大家更好(hao)地理(li)解(jie)智能体在「王者荣耀AI开放研究环境」中接受(shou)的泛化性挑(tiao)战,我(wo)们可以利用论文中的兩(liang)个测试,对其进行验證(zheng):

首(shou)先(xian)制(zhi)作一个行为樹(shu)AI(BT),其水平为入(ru)門(men)級(ji)的「黃(huang)金(jin)」。与之相对的是就是由强化学习算法训练出来的智能体(RL)。

在第(di)一个实验中,只让貂(diao)蟬(chan)(RL)和貂蝉(BT)进行对战,然後(hou)再(zai)拿训练好的RL(貂蝉)去(qu)挑战不同英雄(BT)。

经过98輪(lun)测试后的結(jie)果如下圖(tu)所示(shi):

当对手英雄发生变化时,同一训练的策略的性能急(ji)劇(ju)下降(jiang)。因(yin)为对手英雄的变化使(shi)测试环境与训练环境不同,因此(ci)現(xian)有方法学到的策略缺(que)乏(fa)泛化性。

图1 跨(kua)对手的泛化挑战

在第二(er)个实验中,依然只让貂蝉(RL)和貂蝉(BT)进行对战,然后拿训练好的RL模型控(kong)制其他英雄去挑战貂蝉(BT)。

经过98轮测试后的结果如下图所示:

当模型控制的目標(biao)从貂蝉变成其他英雄时,相同的训练策略的性能急剧下降。因为目标英雄的变化使行动的意義(yi)与训练环境中貂蝉的行动不同。

图2 跨目标的泛化挑战

造(zao)成这个结果的原因很简单,每个英雄本(ben)身(shen)都有自己独特的操(cao)作技巧(qiao),经过单一训练的智能体在拿到新的英雄之后,并不知道如何使用,就只能两眼(yan)一抹(mo)黑(hei)了。

人类玩家也是类似,能在中路(lu)「亂(luan)殺(sha)」的选手,換(huan)了打野(ye)之后,也未(wei)必(bi)能打出不錯(cuo)的KDA。

不難(nan)看(kan)出,这其实就回(hui)到了我们一开始提出的問(wen)題(ti),简单的环境难以训练出「通用」的AI。而复杂度高的MOBA类游戏,正好提供了一个便于测试模型泛化性的环境。

当然,游戏并不能直(zhi)接拿来训练AI,于是经过特別(bie)優(you)化的「训练场」應(ying)運(yun)而生。

由此,研究人员就可以在諸(zhu)如「星际争霸 II 学习环境」和「王者荣耀AI开放研究环境」中,测试和训练自己的模型了。

国内研究人员如何接入合适的平臺(tai)资源?

DeepMind的发展(zhan),離(li)不开实力雄厚(hou)的谷(gu)歌(ge)托底(di)。李飞飞团队提出的MineDojo,不僅(jin)用上了斯(si)坦(tan)福(fu)这个頂(ding)级名校(xiao)的资源,还有来自英偉(wei)达的大力支持。

而国内现階(jie)段(duan)的人工智能行业在基礎(chu)設(she)施(shi)層(ceng)面仍(reng)然不够紮(zha)实,尤(you)其对于普(pu)通公(gong)司(si)和高校来说,正面臨(lin)着研发资源短(duan)缺的问题。

为了让更多研究者参与进来,腾讯于今年11月21日正式将「王者荣耀AI开放研究环境」面向大眾(zhong)开放。

用戶(hu)只需在开悟平台官(guan)網(wang)註(zhu)冊(ce)賬(zhang)號(hao)、提交(jiao)资料(liao)并通过平台審(shen)核(he),即(ji)可免(mian)費(fei)下載(zai)。

网站(zhan)鏈(lian)接:https://aiarena.tencent.com/aiarena/zh/open-gamecore

值(zhi)得(de)一提的是,为了更好地支持学者和算法开发者进行研究,开悟平台不仅对「王者荣耀AI开放研究环境」进行了易(yi)用性封(feng)裝(zhuang),还提供标准代碼(ma)与训练框(kuang)架(jia)。

接下来,我们就来「淺(qian)浅」地体验一下,如何在开悟平台开始一个AI训练項(xiang)目吧(ba)!

既(ji)然要让AI「玩」《王者荣耀》,那(na)么我们要做(zuo)的第一件事(shi)就是,把用来操控英雄的「智能体」做出来。

聽(ting)起(qi)来好像有些复杂?不过,在「王者荣耀AI开放研究环境」中,这其实非常(chang)简单。

首先,啟(qi)动gamecore服(fu)务器(qi):

cdgamecore gamecore-server.exeserver--server-address:23432

安(an)装hok_env包:

gitclone https://github.com/tencent-ailab/hok_env.git cdhok_env/hok_env/ pipinstall -e .

并运行测试腳(jiao)本:

cdhok_env/hok_env/hok/unit_test/ pythontest_env.py

现在,就可以导入hok,并調(tiao)用 hok.HoK1v1.load_game創(chuang)建(jian)环境了:

importhok env = HoK1v1.load_game(runtime_id= 0, game_log_path="./game_log", gamecore_path="~/.hok", config_path="config.dat",config_dicts=[{"hero":"diaochan","skill":"rage"} for_inrange( 2)])

緊(jin)接着,我们通过重置(zhi)环境从智能体那里获得我们的第一个觀(guan)察(cha)结果:

obs, reward, done, infos = env.reset

obs是一个NumPy数組(zu)的列(lie)表,描(miao)述(shu)了代理对环境的观察。

reward是一个浮(fu)点标量(liang)的列表,描述了从环境中获得的即时奖励。

done是一个布(bu)爾(er)列表,描述了游戏的状态。

infos变量是一个字(zi)典(dian)的元组,其長(chang)度为智能体的数量。

然后在环境中執(zhi)行操作,直到时间用完或者智能体被幹(gan)掉(diao)。

此處(chu),只需采(cai)用env.step方法即可。

done= False whilenot done: action = env.get_random_action obs, reward, done, state = env.step(action)

和「星际争霸 II 学习环境」一样,在「王者荣耀AI开放研究环境」中同样可以利用可視(shi)化工具来查(zha)看智能体的回放。

至此,妳(ni)的第一个智能体就已经创建完毕。

接下来,就可以拉(la)着「她(ta)/他」去进行各种各样的训练了!

说到这,想必大家也不难发现,「王者荣耀AI开放研究环境」并不只是单純(chun)地拋(pao)出来一个可以训练AI的环境,而是通过熟(shu)悉(xi)的操作和豐(feng)富(fu)的文檔(dang),使整个流(liu)程(cheng)都变得简单易懂(dong)。

如此一来,也就让更多有誌(zhi)于进入AI领域的人輕(qing)松(song)上手了。

游戏+AI,还有哪(na)些可能?

看到这,其实还有一个问题没有回答(da)——腾讯开悟平台作为一个由企(qi)业主(zhu)导的研究平台,为何要选择大范围开放?

今年8月,成都市(shi)人工智能產(chan)业生态联盟(meng)联合智庫(ku)雨(yu)前顧(gu)问,共同发布了全国首个游戏AI报告(gao)。从报告中不难看出,游戏是促(cu)进人工智能发展的关鍵(jian)点之一,具体来说,游戏可以从三(san)个方面提升(sheng)AI的落(luo)地应用。

首先,游戏是AI极佳的训练测试场。

叠(die)代快速(su):游戏可以隨(sui)便交互(hu)、随便试错,没有任何真实成本,同时存(cun)在明(ming)顯(xian)的奖励机制,能让算法的有效(xiao)性充(chong)分(fen)训练展现出来。

任务丰富:游戏种类繁(fan)多,难度和复杂性也很多样,人工智能必須(xu)采用复杂的策略来应对,攻(gong)克不同类型的游戏反映了算法水平的提升。

成敗(bai)标准清(qing)晰(xi):通过游戏得分标定人工智能的能力,便于进一步(bu)对人工智能进行优化。

其次,游戏能够训练AI的不同能力,牽(qian)引不同应用。

比如,棋类游戏训练AI序(xu)列決(jue)策,获得长線(xian)推演(yan)能力;牌(pai)类游戏训练AI动态自适应,获得随机应变能力;即时战略游戏训练了AI的机器記(ji)憶(yi)能力、长期(qi)规劃(hua)能力、多智能体協(xie)作能力、动作連(lian)貫(guan)性。

另外,游戏还能打破(po)环境制約(yue),推动决策智能落地。

比如,游戏可以推动虛(xu)拟仿(fang)真实时渲(xuan)染(ran)和虚拟仿真信息同步,升级虚拟仿真交互終(zhong)端(duan)。

而开悟平台依托腾讯AI Lab和王者荣耀在算法、算力、复杂场景(jing)等(deng)方面的优势,开放之后,可以为游戏与AI发展之间搭(da)建一座(zuo)有效合作的橋(qiao)梁(liang),链接高校学科建设、竞赛组織(zhi)、行业人才(cai)孵(fu)化。当人才儲(chu)備(bei)足够了,科研的进步和商(shang)业应用的落地都将如雨后春(chun)筍(sun)般(ban)冒(mao)頭(tou)。

过去两年,开悟平台在产学研领域的布局(ju)舉(ju)措(cuo)就很多:举辦(ban)了「开悟多智能体强化学习大赛」,引来包括清北(bei)这样的TOP2名校在内的一片(pian)顶尖(jian)高校团队参加;组建了高校科教(jiao)联合体,北大信息科学技術(shu)学院(yuan)爆(bao)火(huo)的选修(xiu)課(ke)《游戏AI中的算法》,课后作业便是用王者荣耀1V1的环境做实验……

展望(wang)未来,可以期待(dai):借助(zhu)「开悟」平台走(zou)出去的这些人才,将輻(fu)射(she)到AI产业的各个领域,实现平台上下游生态的全面开花(hua)。返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:吉林吉林船营区