益达广告案例分析

益达广告案例分析

益达口香糖在中国广告市场上具有极高的知名度,其广告宣传在多个媒体平台上广泛传播。然而,益达广告也曾经因为违反中国广告法而遭受批评和处罚。下面是对益达广告案例的分析。

益达口香糖

益达口香糖广告曾经被指控违反了中国广告法的相关规定。在其电视广告中,益达宣称它的口香糖可以防止龋齿和牙菌斑,这被认为是误导消费者的说法。因为没有任何一种口香糖可以防止龋齿和牙菌斑,这种说法不仅是虚假的,而且也会误导消费者。根据中国广告法的规定,广告必须真实,准确,不得误导消费者。

广告

随后,益达被中国国家广告监管机构责令停止广告宣传,并处以100万人民币的罚款。在此之后,益达公司采取了一系列措施,以避免再次违反广告法规定。这些措施包括,对其广告进行审查,确保其广告宣传真实可靠;并加强对员工的培训,使其更好地了解广告法规定。

结论

益达广告案例说明了广告宣传必须真实,准确,不得误导消费者。广告必须符合中国广告法的规定,否则将会受到处罚和批评。对于企业来说,确保广告合法性和真实性是非常重要的。只有这样,企业才能够树立良好的声誉,获得消费者的信任。

益达广告案例分析随机日志

ESC关闭弹窗(数量大于一的时候会有二次确认,敲击对应数字键关闭)

1、游戏房间新增文字点单功能,找人开黑更方便

2、优化隐私政策、信息采集功能,新增屏蔽广告的功能。

3、该工具包提供了将转换后的XPS文件保存在计算机的任何所需位置的自由,因此它是最有益的功能,因为用户可以在硬盘驱动器的所需位置管理转换后的XPS数据库,并且它提供了直接从软件面板制作新文件夹以保存结果的便利数据。

4、运行后点击【settings】【language】菜单项把界面语言改成简体中文。

5、打开SecureCRT,在上方的工具栏右侧空白区域使用鼠标右键单击,之后在打开的下拉菜单中,选择“Customize…”

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>超(chao)級(ji)編(bian)程(cheng)AI登(deng)上(shang)Science封(feng)面(mian)!AlphaCode编程大(da)賽(sai)卷(juan)趴(pa)壹(yi)半(ban)程序(xu)員(yuan)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

编輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】在(zai)编程比(bi)赛中(zhong)達(da)到(dao)人(ren)類(lei)水(shui)平(ping)的(de)AlphaCode,再(zai)登Science封面。

這(zhe)個(ge)12月(yue),正(zheng)當(dang)OpenAI的ChatGPT勢(shi)頭(tou)正旺(wang)時(shi),那(na)个曾(zeng)經(jing)卷趴一半程序员的AlphaCode登上Science封面了(le)!

論(lun)文(wen)鏈(lian)接(jie):https://www.science.org/doi/10.1126/science.abq1158

說(shuo)到AlphaCode,想(xiang)必(bi)大家(jia)並(bing)不(bu)陌(mo)生(sheng)。

早(zao)在今(jin)年(nian)2月,它(ta)就(jiu)在著(zhu)名(ming)的Codeforces上,悄(qiao)悄地(di)參(can)加(jia)了10場(chang)编程比赛,并一舉(ju)擊(ji)敗(bai)了半數(shu)的人类碼(ma)農(nong)。

卷趴一半码农

我(wo)們(men)都(dou)知(zhi)道,程序员中非(fei)常(chang)流(liu)行(xing)这樣(yang)一種(zhong)測(ce)試(shi)——编程競(jing)赛。

在竞赛中,主(zhu)要(yao)考(kao)察(cha)的就是(shi)程序员通(tong)過(guo)经驗(yan)進(jin)行批(pi)判(pan)性(xing)思(si)維(wei),為(wei)不可(ke)預(yu)見(jian)的問(wen)題(ti)創(chuang)建(jian)解(jie)決(jue)方(fang)案(an)的能(neng)力(li)。

这體(ti)現(xian)了人类智能的關(guan)鍵(jian),而(er)機(ji)器(qi)學(xue)習(xi)模(mo)型(xing),往(wang)往很(hen)難(nan)模仿(fang)这种人类智能。

但(dan)DeepMind的科(ke)学家们,打(da)破(po)了这一規(gui)律(lv)。

YujiA Li等(deng)人,使(shi)用(yong)自(zi)監(jian)督(du)学习和(he)编码器-解码器轉(zhuan)換(huan)器架(jia)構(gou),開(kai)發(fa)出(chu)了AlphaCode。

AlphaCode的开发工(gong)作(zuo),還(hai)是在居(ju)家期(qi)間(jian)完(wan)成(cheng)的

雖(sui)然(ran)AlphaCode也(ye)是基(ji)於(yu)標(biao)準(zhun)的Transformer编解码器架构,但DeepMind對(dui)它进行了「史(shi)詩(shi)级」的強(qiang)化(hua)——

它使用基于Transformer的語(yu)言(yan)模型,以(yi)前(qian)所(suo)未(wei)有(you)的规模生成代(dai)码,然後(hou)巧(qiao)妙(miao)地篩(shai)出了一小(xiao)部分(fen)可用的程序。

具(ju)体步(bu)驟(zhou)为:

1)多(duo)问詢(xun)註(zhu)意(yi)力:讓(rang)每(mei)个注意力塊(kuai)共(gong)享(xiang)键和值(zhi)的头,并同(tong)时結(jie)合(he)编码器-解码器模型,使AlphaCode的采(cai)样速(su)度(du)提(ti)高(gao)了10倍(bei)以上。

2) 掩(yan)码语言建模(MLM):通过在编码器上加入(ru)一个MLM損(sun)失(shi),來(lai)提高模型的解决率(lv)。

3)回(hui)火(huo):让訓(xun)練(lian)分布(bu)更(geng)加尖(jian)銳(rui),從(cong)而防(fang)止(zhi)过擬(ni)合的正則(ze)化效(xiao)應(ying)。

4)值調(tiao)節(jie)和预测:通过區(qu)分CodeContests数據(ju)集(ji)中正確(que)和錯(cuo)誤(wu)的问题提交(jiao),来提供(gong)一个額(e)外(wai)的训练信(xin)號(hao)。

5)示(shi)範(fan)性異(yi)策(ce)略(lve)学习生成(GOLD):通过將(jiang)训练的重(zhong)點(dian)放(fang)在每个问题最(zui)可能的解决方案上,让模型为每个问题產(chan)生正确方案。

结果(guo)嘛(ma),大家都知道了。

憑(ping)借(jie)著(zhe)1238的Elo得(de)分,AlphaCode让自己(ji)在这10场比赛中的排(pai)名达到了前54.3%。放眼(yan)之(zhi)前的6个月,这一成績(ji)更是达到了前28%。

要知道,为了达到这个排名,AlphaCode必須(xu)「过五(wu)关斬(zhan)六(liu)将」,解决融(rong)合了批判性思维、邏(luo)辑、算(suan)法(fa)、编码和自然语言理(li)解相(xiang)结合的种种新问题。

从结果来看(kan),AlphaCode不僅(jin)解决了CodeContests数据集中29.6%的编程问题,而且(qie)其(qi)中有66%是在第(di)一次(ci)提交时解决的。(總(zong)提交次数限(xian)制(zhi)在10次)

相比起(qi)来,傳(chuan)統(tong)的Transformer模型求(qiu)解率都比較(jiao)低(di),只(zhi)有个位(wei)数。

对于这个结果,就連(lian)Codeforces创始(shi)人Mirzayanov都非常驚(jing)訝(ya)。

畢(bi)竟(jing),编程比赛考验的是发明(ming)算法的能力,这一直(zhi)是AI的弱(ruo)項(xiang),人类的强项。

我可以肯(ken)定(ding)地说,AlphaCode的结果超出了我的预期。开始我持(chi)懷(huai)疑(yi)態(tai)度,因(yin)为即(ji)使在簡(jian)單(dan)的竞赛问题中,不仅需(xu)要實(shi)施(shi)算法,而且还需要发明算法(这是最困(kun)难的部分)。AlphaCode已(yi)经让自己成为很多人类的强勁(jin)对手(shou)。我迫(po)不及(ji)待(dai)地想知道,未来會(hui)发生什(shen)麽(me)!

——Mike Mirzayanov,Codeforces 创始人

所以,AlphaCode这是能搶(qiang)程序员的飯(fan)碗(wan)了?

当然还不行。

AlphaCode还只能完成简单的编程任(ren)務(wu),如(ru)果任务變(bian)得更復(fu)雜(za),问题更加「不可预见」,只会将指(zhi)令(ling)翻(fan)譯(yi)成代码的AlphaCode就束(shu)手無(wu)策了。

毕竟,1238的得分从某(mou)种角(jiao)度来说,也就相当于一个初(chu)学编程的中学生菜(cai)鳥(niao)的水平。这个level,还威(wei)脅(xie)不到真(zhen)正的编程大牛(niu)。

但毫(hao)无疑问的是,这类编码平臺(tai)的开发,会对程序员的生产力产生巨(ju)大的影(ying)響(xiang)。

甚(shen)至(zhi),整(zheng)个编程文化都可能会被(bei)改(gai)变:或(huo)許(xu),以后人类只要負(fu)責(ze)制定问题就可以,而生成和執(zhi)行代码的任务,就可以交給(gei)机器学习了。

编程竞赛有啥(sha)难的?

我们知道,虽然机器学习在生成和理解文本(ben)方面取(qu)得了巨大进步,但是大部分AI目(mu)前仍(reng)然局(ju)限于简单的数学和编程问题。

它们会做(zuo)的,更多是檢(jian)索(suo)和复制现有的方案(这一点相信最近(jin)玩(wan)过ChatGPT的人都深(shen)有体会)。

那么,让AI学习生成正确的程序,为什么这么困难呢(ne)?

1. 要生成解决指定任务的代码,就需要在所有可能的字(zi)符(fu)序列(lie)中搜(sou)索,这是一个海(hai)量(liang)的空(kong)间,而其中只有一小部分对应有效的正确程序。

2. 、一个字符的编辑,可能会完全(quan)改变程序的行为,甚至会导致(zhi)崩(beng)潰(kui),而且每个任务都有许多截(jie)然不同的有效解决方案。

对于难度極(ji)高的编程比赛,AI需要理解复杂的自然语言描(miao)述(shu);需要对以前从未见过的问题进行推(tui)理,而不是简单地記(ji)住(zhu)代码片(pian)段(duan);需要掌(zhang)握(wo)各(ge)种算法和数据结构,并精(jing)确地完成可能長(chang)达数百(bai)行的代码。

此(ci)外,为了評(ping)估(gu)自己生成的这些(xie)代码,AI还需要在一套(tao)詳(xiang)盡(jin)的隱(yin)藏(zang)测试上执行任务,并且检查(zha)执行速度和邊(bian)緣(yuan)情(qing)況(kuang)的正确性。

(A)问题1553D,中等难度评分为1500;(B)AlphaCode生成的问题解决方案

就拿(na)这个1553D问题来说,参赛者(zhe)需要找(zhao)到一种方法,使用一組(zu)有限的輸(shu)入将一串(chuan)隨(sui)机重复的s和t字母(mu)转换成另(ling)一串相同的字母。

参赛者不能只是输入新的字母,而必须使用「退(tui)格(ge)」命(ming)令刪(shan)除(chu)原(yuan)始字符串中的幾(ji)个字母。赛题具体如下(xia):

对此,AlphaCode给出的解决方案如下:

并且,AlphaCode的「解题思路(lu)」也不再是黑(hei)箱(xiang),它还能顯(xian)示代码和注意力高亮(liang)的位置(zhi)。

AlphaCode的学习系(xi)统

参加编程比赛时,AlphaCode面臨(lin)的主要挑(tiao)戰(zhan)是:

(i)需要在巨大的程序空间中搜索,(ii)只能獲(huo)得約(yue)13,000个用于训练的示例(li)任务,以及(iii)每个问题的提交数量有限。

为了应对这些问题,AlphaCode整个学习系统的构建分为三(san)个環(huan)节,预训练、微(wei)调、采样與(yu)评估,如上圖(tu)所示。

预训练

在预训练階(jie)段,利(li)用在GitHub收(shou)集的715GB人类码农的代码快(kuai)照(zhao),对模型进行预训练,并使用交叉(cha)熵(shang)next-token预测损失。在预训练过程中,随机地将代码文件(jian)分成兩(liang)部分,将第一部分作为编码器的输入,并训练模型去(qu)掉(diao)编码器生成第二(er)部分。

这种预训练为编码学习了一个强大的先(xian)验,使随后的特(te)定任务的微调能夠(gou)在一个更小的数据集上进行。

微调

在微调阶段,在一个2.6GB的竞爭(zheng)性编程问题数据集上对模型进行了微调和评估,数据集是DeepMind创建的,命名为CodeContests公(gong)开发布。

CodeContests数据集中包(bao)括(kuo)问题以及测试案例。训练集包含(han)13,328个问题,每个问题平均(jun)有922.4个提交答(da)案。验證(zheng)集和测试集分別(bie)包含117个和165个问题。

在微调过程中,将自然语言的问题陳(chen)述编码为程序注釋(shi),以使其看起来与预训练期间看到的文件更加相似(si)(其中可以包括擴(kuo)展(zhan)的自然语言注释),并使用相同的next-token预测损失。

采样

为了選(xuan)出10个最好(hao)的样本进行提交,采用过濾(lv)和聚(ju)类的方法,利用问题陈述中包含的例子(zi)测试来执行样本,并删除未能通过这些测试的样本。

通过过滤筛除了近99%的模型样本,再对剩(sheng)下的候(hou)选样本进行聚类,在一个单獨(du)的transformer模型生成的输入上执行这些样本,并将在生成的输入上产生相同输出的程序歸(gui)为一类。

然后,从10个最大的聚类中各挑选一个样本进行提交。直觀(guan)地说,正确的程序行为相同,并形(xing)成大的聚类,而不正确的程序的失败方式(shi)是多种多样的。

评估

上图所示为在10@k指标上,模型性能是如何(he)随着更多的样本量和計(ji)算量而变化的。从对采样结果的性能评估上看,研(yan)究(jiu)人员得出了以下4点结论:

1. 解决率随着更大的样本量而呈(cheng)对数線(xian)性扩展;

2. 更好的模型在比例曲(qu)线上有更高的斜(xie)率;

3. 解决率与更多的计算量呈对数线性比例;

4. 样本选擇(ze)对解决率的扩展至关重要。

純(chun)粹(cui)的「数据驅(qu)動(dong)」

毫无疑问,AlphaCode的提出,代表(biao)了机器学习模型在发展上已经邁(mai)出了实質(zhi)性的一步。

有趣(qu)的是,AlphaCode并不包含关于计算机代码结构的明确的內(nei)置知識(shi)。

相反(fan),它依(yi)靠(kao)一种纯粹的「数据驱动」方法来编寫(xie)代码,也就是通过简单地观察大量现有代码来学习计算机程序的结构。

文章(zhang)地址(zhi):https://www.science.org/doi/10.1126/science.add8258

从根(gen)本上说,使AlphaCode在竞争性编程任务上勝(sheng)过其他(ta)系统的原因归结为两个主要屬(shu)性:

1. 训练数据

2. 候选解决方案的后處(chu)理

但计算机代码是一个高度结构化的媒(mei)介(jie),程序必须遵(zun)守(shou)定義(yi)的语法,并且必须在解决方案的不同部分中产生明确的前、后條(tiao)件。

而AlphaCode在生成代码时采用的方法,卻(que)和生成其他文本内容(rong)时完全一样——一次一个token,并且只在整个程序写完后检查程序的正确性。

鑒(jian)于適(shi)当的数据和模型的复杂性,AlphaCode可以生成连貫(guan)的结构。然而,这个順(shun)序生成程序的最終(zhong)配(pei)方被深埋(mai)在LLM的参数中,难以捉(zhuo)摸(mo)。

不过,无论AlphaCode是否(fou)真的能「理解」编程问题,它的确在代码竞赛方面达到了人类的平均水平。

「解决编程竞赛的问题是一件非常困难的事(shi)情,需要人类具有良(liang)好的编码技(ji)能和解决问题的创造(zao)力。AlphaCode能够在这一領(ling)域(yu)取得进展,给我留(liu)下了深刻(ke)的印(yin)象(xiang),我很高興(xing)看到,該(gai)模型如何利用其语句(ju)理解来生成代码,并引(yin)导其随机探(tan)索以创建解决方案。」

——Petr Mitrichev,谷(gu)歌(ge)軟(ruan)件工程師(shi)和世(shi)界(jie)级竞技程序员

AlphaCode在编程竞赛中名列前54%,展示了深度学习模型在需要批判性思维的任务中的潛(qian)力。

这些模型優(you)雅(ya)地利用现代机器学习,将问题的解决方案表达为代码,这就回到几十(shi)年前AI的符号推理根源(yuan)。

而这,仅仅是一个开始。

在未来,还会誕(dan)生更多解决问题的强大AI,或许这一天(tian)已经不遠(yuan)了。

参考資(zi)料(liao):

https://www.science.org/doi/10.1126/science.add8258

https://www.science.org/doi/10.1126/science.abq1158

https://www.deepmind.com/blog/competitive-programming-with-alphacode返(fan)回搜狐(hu),查看更多

责任编辑:

发布于:山西晋中灵石县