垃圾广告标语不要瞎扔,环保从我做起

参考网络资源,垃圾广告标语不要瞎扔,环保从我做起

1. 现状:垃圾广告标语的危害

垃圾广告标语被定义为使用恶劣的文本、图像、声音或视频来欺骗观众获取经济利益的广告。这种广告不仅会扰乱人们的生活,还会给环境造成严重的危害。

首先,垃圾广告标语污染了城市的视觉环境。这些标语通常被贴在建筑物的墙壁、路灯杆和树木上,不仅破坏了城市的美观形象,还破坏了城市的文化氛围。

其次,垃圾广告标语会对城市环境产生威胁。有些广告贴纸或海报被粘在路面上,随着时间的推移,这些标语会分解,形成对地球的污染。例如,在下雨天或者下大雪时,这些标语会融化并流到河流和海洋中,从而对水生生物产生毒害。

2. 垃圾广告标语受到谴责

垃圾广告标语已经成为公众讨论的话题。政府部门、社会团体和业主委员会纷纷发布公告和通告,呼吁人们抵制垃圾广告标语,共同维护城市的环境和文化氛围。

此外,政府部门已经采取措施打击垃圾广告标语。行政机关可以处罚那些故意污染城市环境的公司,对散布垃圾广告标语的个人予以处罚。

3. 如何建立一个环保城市

建立一个环保城市需要大量的投入和长期的努力,同时需要社区居民和企业的合作。下面是一些提高城市环保水平的方法,这些方法不仅可以减少垃圾广告标语的数量,还能改善城市环境。

3.1 提高公众的环保意识

公众的环保意识有助于减少垃圾广告标语在城市中的出现次数。政府可以通过公告牌、广播和电视来提高公众的环保意识。政府还可以采取激励措施,鼓励企业和社区居民参与环保活动。

3.2 建立垃圾分类系统

建立垃圾分类系统可以减少城市垃圾的数量,从而降低城市污染的风险。政府需要向社区居民提供相关的指导和培训。企业还可以通过把垃圾分类变成一种商业机会来参与环保运动。

3.3 制定环保政策

政府应该制定一系列的环保政策,例如对污染排放的限制和对环保项目的鼓励。这样可以保障环保计划的实施。

3.4 合理利用科技手段

科技的发展为城市的环保运动提供了很多支持。例如,可以使用智能监控系统来监测城市的垃圾分类情况,使用车辆识别系统来管理城市交通。这些科技手段可以帮助我们更好地保护环境。

4. 总结

建立一个环保城市需要我们共同的努力和合作。通过提高公众的环保意识,建立垃圾分类系统,制定环保政策和合理利用科技手段,我们可以为城市环境的改善做出贡献。同时,减少垃圾广告标语的数量是保护城市环境的重要手段之一。

让我们共同呼吁:不要瞎扔垃圾广告标语,从我做起,共同建设美丽的环保城市!

问答话题

1. 垃圾广告标语对城市环境的危害有哪些?

垃圾广告标语污染了城市的视觉环境,破坏了城市的美观形象和文化氛围,同时还会对城市环境产生威胁。例如,这些标语会分解,形成对地球的污染,对水生生物产生毒害。

2. 政府如何打击垃圾广告标语?

政府可以采取措施对垃圾广告标语进行打击。例如,政府可以处罚那些故意污染城市环境的公司,对散布垃圾广告标语的个人予以处罚。同时,政府还可以提高公众的环保意识,增加公众对垃圾广告标语的反感程度。

垃圾广告标语不要瞎扔,环保从我做起 随机日志

如果您已完成下载,请依靠额外的功能,例如包含的编码器,或者执行深入的调整

1、如果是有线连接,APP中打开参数设置>更换设备连接的WiFi,拔掉网线后摄像机需要重新上电。

2、主预览、电子地图、电视墙等模块可灵活拖拽,实现多屏显示和控制。

3、Outlook会自动将旅行和飞行路线从电子邮件添加到日历。你可以在需要时快速找到这些重要的旅行计划。

4、修复部分已知bug优化学习体验与系统稳定性等使用中任何问题可以关注微信客服:标日电子叔也可以加标叔微信:biaoooshu进行反馈

5、人脸识别技术,为您提供颜值的官方评测,识别出人脸7个特征点,进行大数据分析,返回颜值结果

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>不(bu)花(hua)錢(qian),讓(rang)「情(qing)聖(sheng)」ChatGPT教(jiao)妳(ni)怎(zen)麽(me)追(zhui)馬(ma)斯(si)克(ke)!

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):编辑部(bu)

【新智元導(dao)讀(du)】如(ru)今(jin)爆(bao)火(huo)的(de)ChatGPT,曾(zeng)經(jing)和(he)马斯克還(hai)有(you)壹(yi)段(duan)七(qi)年(nian)的「糾(jiu)葛(ge)」。

最(zui)近(jin),OpenAI發(fa)布(bu)了(le)史(shi)上(shang)最強(qiang)聊(liao)天(tian)機(ji)器(qi)人(ren)ChatGPT,這(zhe)個(ge)誕(dan)生(sheng)於(yu)GPT-3基(ji)礎(chu)上的AI很(hen)快(kuai)走(zou)紅(hong)網(wang)絡(luo)。

要(yao)說(shuo)这家(jia)夥(huo),天南(nan)海(hai)北(bei)無(wu)所(suo)不知(zhi),可(ke)能(neng)是(shi)誇(kua)張(zhang)了點(dian),但(dan)就(jiu)是无論(lun)什(shen)么話(hua)題(ti)都(dou)能跟(gen)你聊上一大(da)套(tao),先(xian)不说準(zhun)不准,最起(qi)碼(ma)这个範(fan)兒(er)是在(zai)这儿了

有趣(qu)的是,雖(sui)然(ran)作(zuo)為(wei)聯(lian)合(he)創(chuang)始(shi)人的马斯克,早(zao)在2018年就辭(ci)去(qu)了董(dong)事(shi)會(hui)職(zhi)務(wu),但他(ta)對(dui)OpenAI的關(guan)註(zhu)度(du)卻(que)絲(si)毫(hao)不減(jian),並(bing)仍(reng)然是資(zi)助(zhu)人之(zhi)一。

那(na)么,对于这位(wei)「金(jin)主(zhu)爸(ba)爸」,ChatGPT是怎樣(yang)看(kan)待(dai)的呢(ne)?

ChatGPT教你怎么追马斯克

嗯(ng)……非(fei)常(chang)中(zhong)規(gui)中矩(ju)的回(hui)答(da)。不会出(chu)錯(cuo),好(hao)样的。

那让咱(zan)們(men)更(geng)進(jin)一步(bu),請(qing)ChatGPT教教我(wo)们:怎么才(cai)能追到(dao)马斯克呢?

看來(lai),ChatGPT不太(tai)能理(li)解(jie)咱们中國(guo)话裏(li)的「追」,还是得(de)说得直(zhi)白(bai)一些(xie)。

这次(ci),ChatGPT能get到了,而(er)且(qie)回答也(ye)非常「理智」:建(jian)議(yi)您(nin)不要嘗(chang)試(shi)。

嗯,很中肯(ken)的意(yi)見(jian)。

那再(zai)換(huan)一種(zhong)说法(fa)呢,直接(jie)做(zuo)老(lao)公(gong)行(xing)不行?

好家伙,ChatGPT竟(jing)然还懂(dong)这呢!

算(suan)了,放(fang)棄(qi)了,不如还是说说別(bie)的事吧(ba)。

最近,马院(yuan)士(shi)把(ba)床(chuang)和洗(xi)衣(yi)机都搬(ban)进了推(tui)特(te)總(zong)部,誓(shi)要让推特員(yuan)工(gong)们以(yi)公司(si)为家。

不如充(chong)分(fen)发揮(hui)ChatGPT的長(chang)處(chu),贊(zan)美(mei)一下(xia)996吧!

寫(xie)得很好,但不要再写了……

不如……咱们让ChatGPT来写一首(shou)貶(bian)低(di)自(zi)己(ji)的詩(shi),如何(he)?

「他们说话不会抖(dou),思(si)考(kao)无需(xu)深(shen)沈(chen)……」小(xiao)编承(cheng)認(ren),这的確(que)是诗沒(mei)错!

OpenAI:七年了,你知道这七年我是怎么過(guo)的嗎(ma)?

可以说,经歷(li)了这段時(shi)間(jian)的火爆,ChatGPT也再度燃(ran)起了人们对AI发展(zhan)的信(xin)心(xin)和展望(wang),不管(guan)是对AGI重(zhong)燃信心的,还是认为AI將(jiang)在更多(duo)領(ling)域(yu)取(qu)代(dai)人類(lei)的,都在ChatGPT身(shen)上重新看到了希(xi)望。

作为一手(shou)打(da)造(zao)ChatGPT的OpenAI,從(cong)GPT1到GPT3,一路(lu)都经历了哪(na)些历程(cheng)呢?从2015年马斯克牽(qian)頭(tou)成(cheng)立(li),到2022年底(di)ChatGPT的橫(heng)空(kong)出世(shi),这7年OpenAI是怎么过来的?

最近,Business Insider上的一篇(pian)回顧(gu)性(xing)文(wen)章(zhang)帶(dai)我们簡(jian)單(dan)回顾了OpenAI的「这七年」。

2015年,马斯克和著(zhu)名(ming)孵(fu)化(hua)器Y Combinator前(qian)总裁(cai) Sam Altman共(gong)同(tong)创立了OpenAI。

马斯克、奧(ao)特曼(man)和其(qi)他知名的矽(gui)谷(gu)人物(wu),包(bao)括(kuo)彼(bi)得-蒂(di)爾(er)和LinkedIn联合创始人里德(de)-霍(huo)夫(fu)曼,在2015年向(xiang)該(gai)項(xiang)目(mu)认捐(juan)了10億(yi)美元。

根(gen)據(ju)OpenAI网站(zhan)2015年12月(yue)11日(ri)的一份(fen)聲(sheng)明(ming),该集(ji)團(tuan)旨(zhi)在创建一个非營(ying)利(li)組(zu)織(zhi),「以最有可能使(shi)整(zheng)个人类受(shou)益(yi)的方(fang)式(shi)」專(zhuan)注開(kai)发人工智能。

當(dang)时,马斯克说,人工智能是对人类「最大的生存(cun)威(wei)脅(xie)」。

当时,马斯克并不是唯(wei)一一个对人工智能的潛(qian)在危(wei)害(hai)性提(ti)出警(jing)告(gao)的人。

2014年,著名物理學(xue)家斯蒂芬(fen)·霍金也曾警告说,人工智能可能会終(zhong)結(jie)人类。

「很難(nan)想(xiang)象(xiang)人类水(shui)平(ping)的人工智能会給(gei)社(she)会带来多大的好处,同样也很难想象,如果(guo)对人工智能开发或(huo)使用(yong)不当,会给社会带来多大的損(sun)害。」在宣(xuan)布成立Open AI的声明中这样写道。

在接下来的一年里,OpenAI发布了兩(liang)款(kuan)產(chan)品(pin)。

2016年,OpenAI推出Gym,一个让研(yan)究(jiu)人员开发和比(bi)較(jiao)强化学習(xi)AI系(xi)統(tong)的平臺(tai)。这些系统教人工智能来做出具(ju)有最佳(jia)累(lei)積(ji)回报的決(jue)定(ding)。

同年晚(wan)些时候(hou),OpenAI发布了Universe,这是一个用于訓(xun)練(lian)跨(kua)网站和遊(you)戲(xi)平台的智能代理的工具包。

2018年,在共同创立该公司三(san)年後(hou),马斯克辞去了在OpenAI董事会的职务。

在2018年的一篇博(bo)文中,OpenAI表(biao)示(shi),由(you)于汽(qi)車(che)制(zhi)造商(shang)对人工智能的技(ji)術(shu)关注,马斯克从董事会辞职是为了「消(xiao)除(chu)未(wei)来的潜在沖(chong)突(tu)」。

多年来,马斯克一直向特斯拉(la)的投(tou)资者(zhe)力(li)推電(dian)動(dong)汽车自动駕(jia)駛(shi)的开发計(ji)劃(hua)。

不过马斯克后来说,他之所以退(tui)出,是因(yin)为他当时「不同意OpenAI团隊(dui)想做的一些事情」。

2019年,马斯克在Twitter上说,特斯拉也在爭(zheng)奪(duo)與(yu)OpenAI相(xiang)同的一些员工,并補(bu)充说他已(yi)经有一年多没有參(can)与这家公司的事务了。

他说:「如此(ci)看来,最好还是以彼此都滿(man)意的條(tiao)件(jian)分道揚(yang)鑣(biao)。」

马斯克近年来不斷(duan)对OpenAI的一些做法提出異(yi)议。

2020年,马斯克在推特上表示,说到安(an)全(quan)問(wen)题,他对OpenAI高(gao)管的信心「不夠(gou)足(zu)」。

在回應(ying)MIT「科(ke)技評(ping)论」对OpenAI的調(tiao)查(zha)报道时,马斯克表示,OpenAI应该更加(jia)开放。这一报道认为,OpenAI內(nei)部存在一种「保(bao)密(mi)文化」,这和该组织声稱(cheng)的开放透(tou)明的策(ce)略(lve)背(bei)道而馳(chi)。

最近,马斯克说,他已经暫(zan)停(ting)了OpenAI对Twitter數(shu)据庫(ku)的訪(fang)问權(quan)限(xian),OpenAI一直使用Twitter的数据训练軟(ruan)件。

马斯克表示,需要进一步了解OpenAI的治(zhi)理结構(gou)和未来的收(shou)入(ru)计划。OpenAI是以开源(yuan)和非营利为宗(zong)旨创辦(ban)的,这两样現(xian)在都丟(diu)掉(diao)了。

2019年,OpenAI建立了一个人工智能工具,可以生成虛(xu)假(jia)的新聞(wen)报道。

起初(chu),OpenAI说这个机器人在写假新闻方面(mian)非常出色(se),所以决定不发布它(ta)。不过当年晚些时候,该公司发布了人这款工具的一个版(ban)本(ben),称为GPT-2。

2020年,发布了另(ling)一个名为GPT-3的聊天机器人。同年,OpenAI撤(che)下了「非营利组织」的身份。

该公司在一篇博文中宣布,OpenAI已成为一家制定了「利潤(run)上限」的公司。

OpenAI表示,我们希望提高我们籌(chou)集资金的能力,同时仍然为我们的使命(ming)服(fu)务,而我们所知道的任(ren)何现有的合法结构都无法達(da)到適(shi)当的平衡(heng)。我们的解决方案(an)是创建OpenAI LP,作为营利性和非营利性的混(hun)合體(ti),我们称之为「加了上限的营利公司」。

在新的利润结构下,OpenAI的投资者最多可以賺(zhuan)取其原(yuan)始投资的100倍(bei),超(chao)过这个数字(zi)的剩(sheng)下的钱将用于非营利性事务。

2019年底,OpenAI宣布与微(wei)软合作,微软向这家公司投资了10亿美元。OpenAI表示,它将向微软獨(du)家授(shou)权技术。

微软表示,通(tong)过GPT-3模(mo)型(xing)打造出的商業(ye)和创造潜力是无限的,很多潜在的新能力和新应用,甚(shen)至(zhi)超出了我们的想象。

比如在写作和作曲(qu)上、在描(miao)述(shu)和总结大塊(kuai)长篇数据(包括代码)上、在将自然語(yu)言(yan)轉(zhuan)换为另一种语言等(deng)领域,GPT-3能够直接激(ji)发人类的创造力和聰(cong)明才智,未来的局(ju)限可能在于我们自己的想法和方案。

这种伙伴(ban)关系,让微软能够与谷歌(ge)旗(qi)下同样風(feng)头正(zheng)勁(jin)的AI公司DeepMind競(jing)争。

去年,OpenAI发布了一个人工智能畫(hua)作生成工具:Dall-E。

Dall-E是一个人工智能系统,可以根据圖(tu)像(xiang)的描述创造出逼(bi)真(zhen)的图像,甚至能够达到相当的藝(yi)术水准,11月,OpenAI发布了该程序(xu)的更新版本,Dall-E 2。

虽然OpenAI的聊天机器人在过去一周(zhou)已经「起飛(fei)」,但该软件的更新版本可能最快会在明年才能发布。

11月30日,作为演(yan)示模型发布的ChatGPT算得上是OpenAI的「GPT-3.5」。该公司计划接下来发布完(wan)整版的GPT-4。

与此同时,马斯克还在发表评论:

他在回復(fu)Sam Altman在談(tan)论ChatGPT的推文中称,我们離(li)强到危險(xian)的AI的诞生已经不遠(yuan)了。

揭(jie)秘(mi)爆火ChatGPT后的功(gong)臣(chen):RLHF

而要说ChatGPT的爆火,离不开它背后的功臣——RLHF。

OpenAI的研究人员,是使用与InstructGPT相同的方法——来自人类反(fan)饋(kui)的强化学习(RLHF)来训练ChatGPT模型的。

ChatGPT用中文解釋(shi)什么是RLHF

为什么会想到从人类反馈中强化学习呢?这就要从强化学习的背景(jing)说起。

在过去幾(ji)年里,语言模型一直是通过人类輸(shu)入的提示生成文本的。

然而,什么是「好」的文本呢?这很难定義(yi)。因为判(pan)断標(biao)准很主觀(guan),并且非常依(yi)賴(lai)于上下文。

在許(xu)多应用程序中,我们需要模型去编写特定创意的故(gu)事、信息(xi)性文本片(pian)段,或可執(zhi)行的代码段。

而通过编写一个损失(shi)函(han)数来捕(bu)獲(huo)这些屬(shu)性,又(you)顯(xian)得很棘(ji)手。并且,大多数语言模型仍然使用的是下一个标記(ji)預(yu)測(ce)损失(例(li)如交(jiao)叉(cha)熵(shang))进行训练。

为了彌(mi)补损失本身的缺(que)点,有人定义了能够更好地(di)捕捉(zhuo)人类偏(pian)好的指(zhi)标,比如BLEU或ROUGE。

但即(ji)使是它们,也只(zhi)是简单地将生成的文本与引(yin)用进行比较,因此也有很大的局限性。

在这种情況(kuang)下,如果我们使用生成文本的人工反馈作为损失,来優(you)化模型,不是很好吗?

就这样,从人类反馈中强化学习(RLHF)的想法诞生了——我们可以使用强化学习,直接优化带有人类反馈的语言模型。

ChatGPT用英(ying)文解释什么是RLH

是的,RLHF使语言模型能够将在一般(ban)文本数据语料(liao)库上训练的模型,与具有复雜(za)人类價(jia)值(zhi)观的模型对齊(qi)。

在爆火的ChatGPT中,我们能看到RLHF取得的巨(ju)大成功。

RLHF的训练过程,可以分解为三个核(he)心步驟(zhou):

预训练语言模型(LM),

收集数据并训练獎(jiang)勵(li)模型,

通过强化学习微调LM。

预训练语言模型

第(di)一步,RLHF会使用已经用经典(dian)预训练目标进行了预训练的语言模型。

比如,OpenAI在第一个流(liu)行的RLHF模型InstructGPT中,使用了较小版本的 GPT-3。

这个初始模型也可以根据額(e)外(wai)的文本或条件进行微调,但并不是必(bi)要的。

一般来说,对于「哪种模型」最适合作为RLHF的起点,并没有明确的答案。

接下来,为了得到语言模型,我们需要生成数据来训练奖励模型,这就是将人类偏好集成到系统中的方式。

奖励模型训练

生成一个根据人类偏好校(xiao)准的奖励模型(RM,也称为偏好模型)是RLHF中相对较新的研究。

我们的基本目标是,获得一个模型或系统,该模型或系统接收一系列(lie)文本,并返(fan)回一个标量(liang)奖励,这个奖励要在数字上代表人类偏好。

这个系统可以是端(duan)到端的LM,或输出奖励的模块化系统(例如,模型对输出进行排(pai)序,并将排名转换为奖励)。作为标量奖励的输出,对于稍(shao)后在RLHF过程中无縫(feng)集成的现有RL算法至关重要。

这些用于奖励建模的LM可以是另一个经过微调的LM,也可以是根据偏好数据从头开始训练的LM。

RM的提示生成对的训练数据集,是通过从预定义数据集中采(cai)样一组提示而生成的。提示通过初始语言模型生成新文本。

然后,由人工注释器对LM生成的文本进行排名。人类直接对每(mei)段文本打分以生成奖励模型,这在實(shi)踐(jian)中很难做到。因为人类的不同价值观会导致(zhi)这些分数未经校准而且很嘈(cao)杂。

有多种方法可以对文本进行排名。一种成功的方法是让用戶(hu)比较基于相同提示的两种语言模型生成的文本。这些不同的排名方法被(bei)歸(gui)一化为用于训练的标量奖励信號(hao)。

有趣的是,迄(qi)今为止(zhi)成功的RLHF系统都使用了与文本生成大小相似(si)的奖励语言模型。可以推测,这些偏好模型需要具有类似的能力来理解提供(gong)给它们的文本,因为模型需要具有类似的能力才能生成所述文本。

此时,在RLHF系统中,就有了一个可用于生成文本的初始语言模型,和一个接收任何文本并为其分配(pei)人类感(gan)知程度分数的偏好模型。接下来,就需要使用强化学习(RL)来針(zhen)对奖励模型优化原始语言模型。

使用强化学习微调

这个微调任务,可以表述为RL问题。

首先,该策略是一种语言模型,它接受提示并返回一系列文本(或只是文本的概(gai)率(lv)分布)。

该策略的动作空间是语言模型詞(ci)匯(hui)对应的所有token(通常在50k个token数量級(ji)),观察(cha)空间包括可能的输入token序列,因而相当大(词汇量x输入的token数量)。

而奖励函数是偏好模型和策略转變(bian)約(yue)束(shu)的结合。

在奖励函数中,系统将我们討(tao)论过的所有模型,组合到RLHF过程中。

根据来自数据集的prompt x ,会生成两个文本 y1 和 y2 ——一个来自初始语言模型,一个来自微调策略的当前叠(die)代。

来自当前策略的文本被傳(chuan)遞(di)到偏好模型后,该模型会返回一个关于「偏好」的标量概念(nian)——r θ。

将该文本与来自初始模型的文本进行比较后,就可以计算对它们之间差(cha)异的懲(cheng)罰(fa)。

RLHF可以通过迭代更新奖励模型和策略,从这一点繼(ji)續(xu)。

隨(sui)著(zhe)RL策略的更新,用户可以继续将这些输出与模型的早期(qi)版本进行排名。

这个过程中,就引入了策略和奖励模型演变的复杂动態(tai),这个研究非常复杂,非常开放。

参考资料:

https://www.4gamers.com.tw/news/detail/56185/chatgpt-can-have-a-good-conversation-with-you-among-acg-and-trpg-mostly

https://www.businessinsider.com/history-of-openai-company-chatgpt-elon-musk-founded-2022-12#musk-has-continued-to-take-issue-with-openai-in-recent-years-7返回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:江西鹰潭贵溪市