中秋尽情拍,摄影广告必看!

中秋节即将到来,你是否准备好了拍摄美好的瞬间?

中秋节作为中国传统节日之一,是亲情团聚和祭月的重要时刻,也是摄影爱好者展现才华的绝佳时机。而随着智能手机和相机的不断普及,越来越多的人都开始热衷于拍摄中秋的美好瞬间。本篇文章将围绕中秋节拍摄的技巧和广告策划进行详细阐述,为你的摄影创作和营销活动提供有力支持。

一、中秋节拍摄技巧应用

中秋节是摄影爱好者展现创意和能力的良机,下面我们就来详细了解中秋节拍摄的技巧和应用。1. 充分利用光线中秋节期间,月亮较明亮,为拍摄提供了很好的自然光线。而在拍摄人物时,可通过使用闪光灯或手电筒等周边光源,提高画面的明亮度和层次感。2. 正确运用构图构图是摄影中最为基础、也是最为重要的技法之一。在拍摄中秋节的瞬间时,可以运用对称、反射、镜像等构图方式,提高画面的美感和效果。3. 拍摄景深把握景深是影响照片锐度的因素之一,通过调节光圈和焦距来掌握景深,能够为画面增加新的层次感和效果。

二、中秋节广告营销策划

随着消费升级和市场竞争加剧,中秋节已经成为各大品牌展示自己的重要时刻。而作为品牌推广的重要手段之一,广告策划也成为了品牌宣传的关键内容之一。1. 利用情感营销中秋节是亲情团聚的重要时刻,品牌可以通过情感营销的手段,打动消费者的心弦,引发共鸣和认同感。比如《团圆月饼》的广告,通过爷爷和孙子之间的感情故事,传递了品牌的爱心与温度。2. 突出产品特点中秋节作为赠礼和礼物互送的重要时刻,品牌可以通过突出产品的特点和优势,提高消费者的购买欲望和满意度。比如元祖月饼的广告,突出了产品丰富多样的特点,让消费者想要一次性购买多个口味。3. 利用社交媒体传播随着社交媒体的普及和流行,品牌可以通过各种社交媒体平台,积极传播广告信息和品牌故事,提高品牌曝光度和认知度。比如三只松鼠的微信广告,利用微信的朋友圈和公众号平台,快速传达品牌信息和优惠活动。

三、中秋节拍摄的注意事项

在拍摄中秋节的美好瞬间时,也需要注意一些细节和事项,以达到更为出色的拍摄效果。1. 保护眼睛在拍摄月亮时,需要通过焦距放大画面,但过度用眼容易导致视力下降。因此,在拍摄时要注重眼部保护,避免过度疲劳和损伤。2. 合理收纳器材在拍摄中秋节的瞬间时,需要携带相应的器材和配件,如三脚架、滤镜、延时器等。因此,在使用完毕后,要及时收纳器材,避免遗失或损坏。3. 尊重文化习俗中秋节是中国传统文化的重要象征,因此在拍摄时,要尊重文化习俗和风俗习惯,避免对人文环境造成不良影响。

四、总结归纳

在文章中,我们主要从中秋节拍摄技巧和广告营销策划两方面详细阐述,为摄影爱好者和品牌方提供了丰富的思路和想法。在拍摄中秋节的美好瞬间时,需要充分利用光线、正确运用构图、拍摄景深把握等技巧和方法。而在广告策划方面,可以利用情感营销、突出产品特点、利用社交媒体传播等方式,提高品牌影响力和认知度。在拍摄过程中,也需要注重细节和注意事项,如保护眼睛、合理收纳器材、尊重文化习俗等。只有充分发挥创意和能力,才能更好地展现中秋节的美好和价值。

中秋尽情拍,摄影广告必看!特色

1、资讯阅读,能够让用户阅读各种腕表相关资讯

2、能快速看到结果,并能了解整个施工过程和各种细节。

3、全网最全的动画资源,日语新番,国语动画,剧场版,动画大电影,应有尽有

4、附带的练习题库也特别丰富,用户可以根据自己的能力自由选择。

5、超大的地图自由的探索,九大区域地图构建出完美的魔幻世界,冒险之旅还只是刚刚开始而已

中秋尽情拍,摄影广告必看!亮点

1、随时随地学习四六级单词词库,可语音朗读单词,可以设置朗读发音人声调和朗读速度,学习单词更容易。

2、健康科普:快问医学团队审核,每日给你播报健康热点,疾病科普,增涨健康知识。

3、更够帮助小哥提高工作效率

4、★在你的后面会有着大量的危险情况出现,极大的增加了游戏的操作性。

5、每日多次领取免费完美,获得奖卷之后,更可抽取幸运大奖!

zixunyuedu,nenggourangyonghuyuedugezhongwanbiaoxiangguanzixunnengkuaisukandaojieguo,bingnenglejiezhenggeshigongguochenghegezhongxijie。quanwangzuiquandedonghuaziyuan,riyuxinfan,guoyudonghua,juchangban,donghuadadianying,yingyoujinyoufudaidelianxitikuyetebiefengfu,yonghukeyigenjuzijidenengliziyouxuanze。chaodadedituziyoudetansuo,jiudaquyuditugoujianchuwanmeidemohuanshijie,maoxianzhilvhaizhishiganggangkaishieryi谷(gu)歌(ge)又(you)鬧(nao)大(da)烏(wu)龍(long)!Jeff Dean參(can)與(yu)的(de)新(xin)模(mo)型(xing)竟(jing)搞(gao)錯(cuo)Hinton生(sheng)日(ri)

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):好(hao)困(kun) Aeneas

【新智元導(dao)讀(du)】最(zui)近(jin),谷歌研(yan)究(jiu)員(yuan)發(fa)布(bu)了(le)關(guan)於(yu)指(zhi)令(ling)微(wei)調(tiao)的最新工(gong)作(zuo)!然(ran)而(er)卻(que)宣(xuan)傳(chuan)圖(tu)中(zhong)出(chu)現(xian)了可(ke)笑(xiao)的乌龙。

幾(ji)個(ge)小(xiao)時(shi)之(zhi)前(qian),谷歌大腦(nao)的研究员們(men)非(fei)常(chang)開(kai)心(xin)地(di)曬(shai)出了自(zi)己(ji)最新的研究成(cheng)果(guo):

「我(wo)们新开源(yuan)的語(yu)言(yan)模型Flan-T5,在(zai)對(dui)1,800多(duo)種(zhong)语言的任(ren)務(wu)進(jin)行(xing)指令微调後(hou),顯(xian)著(zhu)提(ti)高(gao)了prompt和(he)多步(bu)推(tui)理(li)的能(neng)力(li)。」

然而,就(jiu)在這(zhe)張(zhang)精(jing)心制(zhi)作的「宣传图」上(shang),竟藏(zang)著(zhe)壹(yi)个讓(rang)人(ren)哭(ku)笑不(bu)得(de)的bug!

請(qing)註(zhu)意(yi)看(kan)Geoffrey Hinton的出生日期(qi):

但(dan)實(shi)際(ji)上,Hinton出生于1947年(nian)……

雖(sui)然沒(mei)有(you)必(bi)然聯(lian)系(xi),但是(shi)谷歌自己的模型,竟然會(hui)把(ba)自家(jia)大佬(lao)的生日搞错?

馬(ma)庫(ku)斯(si)同(tong)誌(zhi)看完(wan)直(zhi)接(jie)就驚(jing)了:妳(ni)们谷歌,没人負(fu)責(ze)審(shen)核(he)的嗎(ma)……

理論(lun)上,这篇(pian)擁(yong)有31位(wei)作者(zhe),外(wai)加(jia)Jeff Dean这种大佬参与的论文(wen),不應(ying)該(gai)发生这种「低(di)級(ji)错誤(wu)」才(cai)对啊(a)。

「復(fu)制」的时候(hou)「打(da)错了」而已(yi)!

很(hen)快(kuai),论文的共(gong)同一作就在马库斯的推文下(xia)面(mian)进行了回(hui)复:「我们都(dou)知(zhi)道,模型的輸(shu)出並(bing)不總(zong)是符(fu)合(he)事(shi)实。我们正(zheng)在进行负责任的AI評(ping)估(gu),一旦(dan)有了結(jie)果,我们將(jiang)立(li)即(ji)更(geng)新论文。」

没過(guo)多久(jiu),这位作者刪(shan)除(chu)了上面那(na)條(tiao)推文,并更新留(liu)言稱(cheng):「这只(zhi)是在把模型的输出复制到(dao)推特(te)上时,『打错了』而已。」

对此(ci),有網(wang)友(you)调侃(kan)道:「不好意思(si),你能不能給(gei)我翻(fan)譯(yi)翻译,什(shen)麽(me)叫(jiao)『复制』來(lai)着?」

當(dang)然,在查(zha)看原(yuan)文之后可以(yi)发现,「图1」所(suo)示(shi)的生日,確(que)实没错。

至(zhi)于在宣传图中是如(ru)何(he)從(cong)「1947」變(bian)成「1963」的,大概(gai)只有做(zuo)图的那位朋(peng)友自己知道了。

隨(sui)后,马库斯也(ye)删除了自己的这条推文。

世(shi)界(jie)重(zhong)歸(gui)平(ping)靜(jing),就像(xiang)什么也没有发生一樣(yang)。

只留下谷歌研究员自己推文下面的这条在風(feng)中飄(piao)搖(yao)——

擴(kuo)展(zhan)指令微调语言模型

既(ji)然误会解(jie)除了,我们就让話(hua)題(ti)重新回到论文本(ben)身(shen)上来吧(ba)。

去(qu)年,谷歌推出了一个参數(shu)量(liang)只有1370億(yi)的微调语言网絡(luo)FLAN(fine-tuned language net)。

https://arxiv.org/abs/2109.01652

FLAN是Base LM的指令调優(you)(instruction-tuned)版(ban)本。指令调优管(guan)道混(hun)合了所有数據(ju)集(ji),并从每(mei)个数据集中随機(ji)抽(chou)取(qu)样本。

研究人员称,这种指令调節(jie)(instruction tuning)通(tong)过教(jiao)模型如何執(zhi)行指令描(miao)述(shu)的任务来提高模型處(chu)理和理解自然语言的能力。

结果显示,在許(xu)多有難(nan)度(du)的基(ji)準(zhun)測(ce)試(shi)中,FLAN的性(xing)能都大幅(fu)超(chao)过了GPT-3。

这次(ci),谷歌将语言模型进行拓(tuo)展之后,成功(gong)刷(shua)新了不少(shao)基准测试的SOTA。

比(bi)如,在1.8K任务上进行指令微调的Flan-PaLM 540B,性能明(ming)显优于標(biao)准的PALM 540B(平均(jun) + 9.4%),并且(qie)在5-shot的MMLU上,Flan-PaLM也实现了75.2%的准确率(lv)。

此外,作者還(hai)在论文中公(gong)开发布Flan-T5檢(jian)查點(dian)。即便(bian)是与更大的模型(如PaLM 62B)相(xiang)比,Flan-T5也能实现強(qiang)大的小样本性能。

论文地址(zhi):https://arxiv.org/abs/2210.11416

总结来說(shuo),作者通过以下三(san)种方(fang)式(shi)扩展了指令微调:

扩展到540B模型

扩展到1.8K的微调任务

在思維(wei)鏈(lian)(CoT)数据上进行微调

作者发现具(ju)有上述方面的指令微调显著提高了各(ge)种模型類(lei)(PaLM、T5、U-PaLM)、prompt設(she)置(zhi)(zero-shot、few-shot、CoT)和评估基准(MMLU、BBH、 TyDiQA、MGSM、开放(fang)式生成)。

这次的微调数据包(bao)括(kuo)473个数据集、146个任务类別(bie)和1,836个总任务。

作者是通过结合之前工作中的四(si)种混合(Muffin、T0-SF、NIV2 和 CoT),縮(suo)放(scale)成了下图中的1836个微调任务。

在研究中,微调数据格(ge)式如下图这样組(zu)合。研究者在有样本/無(wu)样本、有思想(xiang)链/无思想链的情(qing)況(kuang)下进行了微调。要(yao)注意的是,其(qi)中只有九(jiu)个思维链(CoT)数据集使(shi)用(yong)CoT格式。

第(di)四种微调数据的混合涉(she)及(ji)CoT注釋(shi),作者用它(ta)来探(tan)索(suo)CoT注释的微调是否(fou)可以提高看不見(jian)的推理任务的性能。

作者从先(xian)前的工作中創(chuang)建(jian)了9个数据集的新混合,然后由(you)人类评估者手(shou)動(dong)為(wei)訓(xun)練(lian)语料(liao)库编寫(xie)CoT注释。这9个数据集包括算(suan)数推理、多跳(tiao)推理(multi-hop reasoning)和自然语言推理等(deng)。

作者在廣(guang)泛(fan)的模型中应用了指令微调,包括T5、PaLM和U-PaLM。对于每个模型,作者都采(cai)用了相同的训练过程(cheng),使用恒(heng)定(ding)的學(xue)習(xi)率,并使用Adafactor优化(hua)器(qi)进行了微调。

从下表(biao)中可以看出,用于微调的計(ji)算量僅(jin)占(zhan)训练计算的一小部(bu)分(fen)。

作者根(gen)据模型的大小和微调任务的数量,在保(bao)留任务的性能上检测了缩放的影(ying)響(xiang)。

作者从对三种大小的PaLM模型(8B/62B/540B)进行实驗(yan),从任务最少的混合开始(shi),一次添(tian)加任务混合,然后再(zai)到任务最多的混合(CoT、Muffin、T0-SF 和 NIV2)。

作者发现,扩展指令微调后,模型大小和任务数量的扩展都会大大改(gai)善(shan)性能。

是的,繼(ji)續(xu)扩展指令微调就是最关鍵(jian)的要点!

不过,在282个任务之后,收(shou)益(yi)开始略(lve)微变小。

从下表中可以看出,对于三种大小的模型,多任务指令微调后,相比没有微调时,性能有很大的提高,性能增(zeng)益範(fan)圍(wei)从9.4%到15.5%。

其次,增加微调数量可以提高性能,盡(jin)管大部分的改进来自282个任务。

最后,将模型規(gui)模增加一个数量级(8B→62B或(huo)62B→540B)会显著提高微调和非微调模型的性能。

为什么282个任务之后增益就变小了呢(ne)?有兩(liang)种解释。

一是附(fu)加任务不夠(gou)多样化,因(yin)此没有为模型提供(gong)新知識(shi)。

二(er)是多任务指令微调的大部分收益,是因为模型学习更好地表達(da)了它在預(yu)训练中已經(jing)知道的知识,而282个以上的任务并没有太(tai)大的幫(bang)助(zhu)。

另(ling)外,作者还探討(tao)了在指令微调混合中包含(han)思想链(CoT)数据的效(xiao)果。

可以看出,Flan-PaLM在所有评估基准上都优于PaLM。

不过令人惊訝(ya)的是,以前的指令微调方法(fa)(如FLAN,T0)显著降(jiang)低了non-CoT的性能。

对此的解決(jue)方案(an)是,只需(xu)在微调混合中添加9个CoT数据集,就可以在所有评估中獲(huo)得更好的性能。

虽然思维链(Chain-of-Thought)prompting通常非常有效,但只能编写少量样本,而且零(ling)样本CoT并不总是有效果。

而谷歌研究者的CoT微调显著提高了零样本推理能力,比如常识推理。

为了展示方法的通用性,研究人员训练了T5、PaLM和U-PaLM。其中参数量的覆(fu)蓋(gai)范围也非常广,从8000萬(wan)到5400亿。

结果證(zheng)明,所有这些(xie)模型都得到了显著提升(sheng)。

在以往(wang),开箱(xiang)即用的预训练语言模型可用性通常都很差(cha),比如对输入(ru)的prompt没有反(fan)应。

谷歌的研究者要求(qiu)人类评估者来评估开放式生成問(wen)题的「模型可用性」。

结果显示,Flan-PaLM 的可用性比PaLM基礎(chu)模型要高79%。

此外,指令微调还補(bu)充(chong)了其他(ta)的模型適(shi)应技(ji)術(shu),比如UL2R。

同样的,Flan-U-PaLM取得了很多优秀(xiu)的结果。

论文地址:https://arxiv.org/abs/2210.11399

谷歌的另一起(qi)「翻車(che)」事件(jian)

可以说,剛(gang)刚发生的这个劇(ju)情,既視(shi)感(gan)相当强了!

没错,就在10月(yue)19日,当谷歌Pixel的官(guan)方賬(zhang)號(hao)试图挖(wa)苦(ku)蘋(ping)果CEO库克(ke)时,被(bei)网友抓(zhua)包:是用iPhone发的推文……

显然,这种事情早(zao)已不是第一次了。

2013年,T-Mobile的CEO就在推特上对三星(xing)Note 3贊(zan)不絕(jue)口(kou),但用的是iPhone。

同样是2013年,黑(hei)莓(mei)的创意总監(jian)Alicia Keys在发布会上说,她(ta)已经拋(pao)棄(qi)了自己之前的iPhone,換(huan)了黑莓Z10。随后,就被发现用iPhone发推,甚(shen)至在被抓到后发推狡(jiao)辯(bian)说是因为自己被黑了。

三星,也不例(li)外:

而且,相比于谷歌的这次删推,三星当时做得更加决绝:直接删号!

看来,營(ying)銷(xiao)課(ke)程有必要加上这样的一条戒(jie)律(lv)了:如果你要推广一个產(chan)品(pin),请不要用競(jing)爭(zheng)对手的产品来做。

这并不是一个难以传授(shou)的信(xin)息(xi),甚至还可以做得直白(bai):在推销其他产品时,手裏(li)请不要拿(na)着iPhone。

参考(kao)資(zi)料:

https://arxiv.org/abs/2210.11416

https://hub.baai.ac.cn/view/21163

https://www.businessinsider.com/google-pixel-tim-cook-tweet-sent-from-iphone-2022-10

https://wccftech.com/samsung-used-twitter-for-iphone-to-promote-the-galaxy-note-9-display/返(fan)回搜(sou)狐(hu),查看更多

责任编辑:

发布于:江苏连云港灌南县