白酒类广告语
白酒广告语的含义白酒作为中国文化的一部分,也成为了商业市场中的一种产品。白酒不仅仅是一种饮品,也是一种身份的象征。因为白酒需要进行酿造,所以它的价格相对较高,对于一些人来说,白酒包含了一种奢华的感觉。因此,很多白酒广告语也强调了这种奢华感,比如“品质雍容尊贵”、“尊享美好生活”等等。除此之外,白酒广告语也强调了与中国文化相关的元素,比如“与国风共饮”、“与时代同呼吸”等等。这些广告语的设计,也帮助白酒在市场中获得了更多的关注与认可。白酒广告语的策略白酒广告语中,有一些关键词或者短语,往往具有一定的策略意义。比如,“纯正”、“古法酿造”等,强调了白酒的酿造工艺和质量,让人们对于白酒的信任度更高。此外,“珍藏”、“陈年老酒”等短语,也强调了白酒的品质和价值,让消费者觉得这是一种值得收藏和珍惜的饮品。还有的广告语中,强调了白酒的文化底蕴,比如“传承中华文化”、“与国风共饮”等等,让人们在饮用白酒的同时,体验到了一种文化的附加价值。这些广告语既强调了白酒的品质和价值,也帮助了企业在市场中更好地定位,吸引了更多的消费者。白酒广告语的未来发展随着社会和市场的不断发展,白酒广告语也在不断变化。未来,白酒广告语可能更加注重创新和个性化,因为人们对于新鲜、独特的产品更加感兴趣。同时,白酒广告语也可能更加注重健康与环保,因为这些因素已经成为了人们购买产品的重要考虑因素。虽然白酒广告语的未来发展还面临许多不确定因素,但是我们可以相信,只要企业能够始终保持创造力和创新意识,就一定能够在未来市场中获得更好的发展。结论:白酒是中国文化的一部分,也是商业市场中的一种产品。白酒广告语既强调了白酒的品质和价值,也强调了白酒与中国文化相关的元素。未来,白酒广告语也将面临新的挑战和机遇,我们相信,只要企业能够始终保持创新意识和创造力,就一定能够在未来市场中获得更好的发展。
白酒类广告语随机日志
阅读Gempub书籍和查看ZIP档案的内容
1、如使用WiFi请确保该网络能正常上网,可访问其他网站进行确认。
2、消费分期、预借现金、密码管理、一键锁卡、积分商城、权益服务等
3、美食刷刷是一款带你发现更多美食的短视频app,精选各地特色美食美味,更有各种菜谱教程,精选分类,是一款吃货必备神器。美食刷刷采用人工智能技术,个性化推荐你喜欢的精选美食,更可以实时点赞收藏分享,是一款好看、好吃、好学的美食短视频app。
4、帮助解决手机卡顿温度过高网络监测充电加速等问题;
5、增加外研社、沪教版小学、中职英语、冀教版初中、朗文国际英语等词库,解决罕见突发原因(电信检修线路)导致以前版本不能在线激活、注销、分享和在线升级问题,请正在使用老版本的用户下载最新完整版覆盖安装,给您带来不便我们深表歉意
<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>a16z 創(chuang)始(shi)合(he)夥(huo)人(ren):為(wei)什(shen)麽(me) AI 會(hui)拯(zheng)救(jiu)世(shi)界(jie)? 撰(zhuan)寫(xie):MARC ANDREESSEN 編(bian)譯(yi):深(shen)潮(chao) TechFlow AI時(shi)代(dai)帶(dai)來(lai)了(le)驚(jing)喜(xi)和(he)恐(kong)慌(huang),但(dan)好(hao)消(xiao)息(xi)是(shi) AI 不(bu)会毀(hui)滅(mie)世界,反(fan)而(er)可(ke)能(neng)拯救世界。 a16z的(de)创始合伙人MARC ANDREESSEN 認(ren)为,AI提(ti)供(gong)了增(zeng)強(qiang)人類(lei)智(zhi)慧(hui)的機(ji)会,使(shi)我(wo)們(men)在(zai)各(ge)個(ge)領(ling)域(yu)取(qu)得(de)更(geng)好的結(jie)果(guo)。每(mei)个人都(dou)能擁(yong)有(you)壹(yi)位(wei) AI 導(dao)師(shi)、助(zhu)手(shou)或(huo)合作(zuo)伙伴(ban),幫(bang)助我们最(zui)大(da)化(hua)潛(qian)力(li)。AI還(hai)能推(tui)動(dong)經(jing)濟(ji)增長(chang)、科(ke)學(xue)突(tu)破(po)和藝(yi)術(shu)创作,改(gai)善(shan)決(jue)策(ce)和減(jian)少(shao)戰(zhan)爭(zheng)傷(shang)亡(wang)。然(ran)而,AI的發(fa)展(zhan)也(ye)存(cun)在風(feng)險(xian),而當(dang)前(qian)的道(dao)德(de)恐慌可能誇(kua)大了問(wen)題(ti),其(qi)中(zhong)一些(xie)行(xing)动者(zhe)可能是为了自(zi)身(shen)利(li)益(yi)。 如(ru)何(he)理(li)性(xing)看(kan)待(dai)AI,又(you)應(ying)該(gai)從(cong)哪(na)些視(shi)角(jiao)来看待AI? 這(zhe)篇(pian)文(wen)章(zhang)为我们提供了一个可行、可信(xin)與(yu)可深入(ru)的探(tan)討(tao)範(fan)例(li)。 以(yi)下(xia)是全(quan)文內(nei)容(rong): AI 时代已(yi)经到(dao)来,惊喜之(zhi)余(yu)也带来許(xu)多(duo)惊慌。幸(xing)運(yun)的是,我在这裏(li)带来好消息:AI 不会毁灭世界,事(shi)實(shi)上(shang)可能拯救世界。 首(shou)先(xian),簡(jian)要(yao)介(jie)紹(shao)一下什么是 AI:將(jiang)數(shu)学和軟(ruan)件(jian)代碼(ma)应用(yong)於(yu)教(jiao)授(shou)計(ji)算(suan)机如何理解(jie)、綜(zong)合和生(sheng)成(cheng)知(zhi)識(shi),就(jiu)像(xiang)人类所(suo)做(zuo)的一樣(yang)。AI 像任(ren)何其他(ta)计算机程(cheng)序(xu)一样——运行、接(jie)受(shou)輸(shu)入、處(chu)理和生成输出(chu)。AI 的输出在很(hen)多领域内都很有用,从编码到醫(yi)学、法(fa)律(lv)、创意(yi)艺术等(deng)。它(ta)由(you)人拥有和控(kong)制(zhi),就像任何其他技(ji)术一样。 AI 不是殺(sha)手和机器(qi)人,会啟(qi)动並(bing)决定(ding)謀(mou)杀人类或以其他方(fang)式(shi)破壞(huai)一切(qie),就像妳(ni)在電(dian)影(ying)中看到的那(na)样。而 AI 可能成为使我们關(guan)心(xin)的一切變(bian)得更好的方法。 为什么 AI 可以使我们关心的一切变得更好? 社(she)会科学多年(nian)来進(jin)行了数千(qian)項(xiang)研(yan)究(jiu),最具(ju)有可靠(kao)性的核(he)心结論(lun)是:人类的智慧可以改善生活(huo)结果。聰(cong)明(ming)人在幾(ji)乎(hu)所有活动领域都有更好的结果:学業(ye)成就、工(gong)作表(biao)現(xian)、職(zhi)业地(di)位、收(shou)入、创造(zao)力、身體(ti)健(jian)康(kang)、壽(shou)命(ming)、学習(xi)新(xin)技能、管(guan)理復(fu)雜(za)任務(wu)、领导才(cai)能、创业成功(gong)、沖(chong)突解决、閱(yue)讀(du)理解、金(jin)融(rong)决策、理解他人的觀(guan)點(dian)、创意艺术、育(yu)兒(er)结果和生活滿(man)意度(du)。 此(ci)外(wai),人类的智慧是千年来我们用来创造今(jin)天(tian)生活世界的杠(gang)桿(gan):科学、技术、数学、物(wu)理、化学、医学、能源(yuan)、建(jian)築(zhu)、交(jiao)通(tong)、通信、艺术、音(yin)樂(le)、文化、哲(zhe)学、倫(lun)理和道德。如果沒(mei)有在所有这些领域应用智慧,我们仍(reng)将生活在泥(ni)沼(zhao)中,勉(mian)强維(wei)持(chi)基(ji)本(ben)的農(nong)业生计。相(xiang)反,我们已经利用我们的智慧,在過(guo)去(qu) 4000 年里将我们的生活水(shui)平(ping)提高(gao)了約(yue) 10000 倍(bei)。 AI 为我们提供了一个增强人类智慧的机会,使得所有智慧成果——从创造新藥(yao)到解决氣(qi)候(hou)变化到星(xing)際(ji)旅(lv)行等——都可以从这里開(kai)始变得更好。 AI 對(dui)人类智慧的增强已经开始——AI 已经以各種(zhong)形(xing)式出现在我们周(zhou)圍(wei),例如许多种类型(xing)的计算机控制系(xi)統(tong),现在通过像 ChatGPT 这样的大型語(yu)言(yan)模(mo)型迅(xun)速(su)升(sheng)級(ji),并且(qie)将从此处快(kuai)速加(jia)速发展——如果我们允(yun)许的話(hua)。 在我们这个 AI 的新时代中: 然而,这里的风险很高。 AI 可能是我们文明创造的最重要、最好的東(dong)西(xi),与电力和微(wei)芯(xin)片相当,甚至可能更超(chao)越(yue)它们。 AI 的发展和普(pu)及(ji)——遠(yuan)非我们应该害(hai)怕的风险——是我们对自己、我们的孩子和我们的未(wei)来的道德義(yi)务。有了 AI,我们应该生活在一个更美(mei)好的世界里。 那么为什么会出现恐慌呢(ne)? 与这种積(ji)极的观点形成鮮(xian)明对比的是,关于 AI 的公(gong)共(gong)话题充(chong)满了恐懼(ju)和偏(pian)执。 我们聽(ting)到各种聲(sheng)音稱(cheng) AI 将杀死我们所有人,毁坏我们的社会,奪(duo)走(zou)所有的工作,引(yin)起(qi)嚴(yan)重的不平等。如何解釋(shi)这种从近(jin)乎烏(wu)托(tuo)邦(bang)到反乌托邦结果的差(cha)異(yi)如此之大? 歷(li)史(shi)上,每一项重要的新技术,从电燈(deng)到汽(qi)車(che),从收音机到互(hu)聯(lian)網(wang),都引发了恐慌——一种社会傳(chuan)染(ran)病,使人们相信新技术将毁灭世界、毁灭社会或兩(liang)者兼(jian)而有之。悲(bei)观主义者檔(dang)案(an)館(guan)的優(you)秀(xiu)工作記(ji)錄(lu)了几十(shi)年来由技术驅(qu)动的这些道德恐慌;他们的历史使模式变得非常(chang)清(qing)晰(xi)。事实證(zheng)明,现在这种恐慌之前也有过。 当然,许多新技术确实导致了不良(liang)後(hou)果——通常是那些在其他方面(mian)对我们非常有益的技术。因此,仅仅存在一种道德恐慌并不意味(wei)著(zhe)没有什么需(xu)要关註(zhu)的问题。 然而,道德恐慌本质上是非理性的——它将可能是合理关注的问题夸大成一种歇(xie)斯(si)底(di)里的程度,使真(zhen)正(zheng)严重的问题被忽(hu)略。 现在我们已经出现了 AI道德恐慌。 这种道德恐慌已经被各种行为者用作推动政策行动的动力——新的 AI 限制、法规和法律。这些行为者对 AI 危(wei)险性进行了极其戲(xi)劇(ju)化的公开声明——满足(zu)并进一步加剧道德恐慌——所有这些人都自詡(xu)为无私(si)的公共利益捍(han)衛(wei)者。 但他们是嗎(ma)? 他们是对还是错? 经济学家已经观察(cha)到这种改革(ge)运动中的一个长期(qi)存在的模式。此类运动内部(bu)的行为者分为两类——“洗(xi)禮(li)者”和“走私者”——借(jie)鑒(jian)了 20 世紀(ji) 20 年代美國(guo)禁(jin)酒(jiu)令(ling)的例子: “洗礼者”是真正的信徒(tu)社会改革者,他们认为情感(gan)上,即(ji)使不是理性上——需要新的限制、法规和法律来防(fang)止(zhi)社会災(zai)難(nan)。 对于酒禁,这些行为者通常是真正虔(qian)誠(cheng)的基督(du)教徒,他们认为酒精(jing)正在摧(cui)毁社会的道德基礎(chu)。对于 AI 风险,这些行动者相信 AI 可能会产生某(mou)种存亡风险——如果給(gei)他们一个測(ce)謊(huang)儀(yi),他们真的是这么想的。 “走私者”是自我利益的机会主义者,他们可以通过实施(shi)新的限制、法规和法律从中獲(huo)得財(cai)务利益,使自己免受競(jing)争对手的影響(xiang)。对于酒禁,这些人通过出售(shou)非法酒精賺(zhuan)取财富(fu)。 在 AI 风险中,这些人是 CEO,如果建立(li)監(jian)管壁(bi)壘(lei),这些 CEO 将赚更多的錢(qian),因为政府保(bao)护它们免受新创业公司(si)和开源竞争的影响。 一些人会认为,有一些人表面上的“洗礼者”,同时也是“走私者”——特別(bie)是那些受到大学、智庫(ku)、活动组织和媒(mei)体机構(gou)付(fu)钱攻(gong)擊(ji) AI 的人。如果你收到工资或获得撥(bo)款(kuan)来培(pei)養(yang) AI 恐慌……你很可能是“走私者”。 “走私者”的问题在于他们勝(sheng)利了。 “洗礼者”是天真的意识形態(tai)者,“走私者”是憤(fen)青(qing)的操(cao)作者,所以这类改革运动的结果通常是“走私者”得到了他们想要的——监管、对竞争的保护——而“洗礼者”则疑(yi)惑(huo)着他们的社会改进驱动力哪里错了。 我们剛(gang)刚经历了一个惊人的例子——2008 年全球金融危机后的銀(yin)行改革。 “洗礼者”告(gao)訴(su)我们,我们需要新的法律和法规来打(da)破“大而不倒(dao)”的银行,防止这样的危机再(zai)次(ci)发生。因此,国会通过了 2010 年的多德-弗(fu)蘭(lan)克(ke)法案,该法案被宣(xuan)传为满足“洗礼者”的目(mu)標(biao),但实际上被“走私者”——大型银行所控制。结果是,2008 年“大而不倒”的银行现在更加龐(pang)大。 因此,在实踐(jian)中,即使“洗礼者”是真诚的——即使“洗礼者”是正确的——他们也会被狡(jiao)猾(hua)和貪(tan)婪(lan)的“走私者”利用来获益。 目前,在推动 AI 监管方面也发生了这种情況(kuang),仅仅确定行动者并懷(huai)疑他们的动机是不够的。我们应该就“洗礼者”和“走私者”的观点进行評(ping)估。 AI 风险#1:AI 会杀死我们所有人吗? 最初(chu)和最原(yuan)始的 AI 风险是 AI 将决定杀死人类。 由我们自己创造的技术将起义并摧毁我们的恐惧深深编码在我们的文化中。希(xi)臘(la)人通过普羅(luo)米(mi)修(xiu)斯神(shen)话来表達(da)这种恐惧——普罗米修斯为人类带来了破坏性的火(huo)焰(yan)力量(liang),更普遍(bian)地說(shuo)是技术("techne"),因此被眾(zhong)神判(pan)处永(yong)久(jiu)受苦(ku)。后来,瑪(ma)麗(li)·雪(xue)萊(lai)在她(ta)的小说《弗兰肯(ken)斯坦(tan)》或者又名(ming)《现代普罗米修斯》中给了我们现代人自己版(ban)本的这个神话,我们开发了实现永生的技术,然后这项技术起义并試(shi)圖(tu)摧毁我们。 这个神话的假(jia)設(she)进化目的是激(ji)勵(li)我们认真考(kao)慮(lv)新技术的潜在风险——畢(bi)竟(jing),火确实可以用来燒(shao)毁整个城(cheng)市(shi)。但正如火也是现代文明的基础一样,可以用来使我们在寒(han)冷(leng)而充满敵(di)意的世界中保持温暖和安(an)全,这种神话忽略了大多数(全部?)新技术的利远大于不利方面,并在实践中引起了破坏性情緒(xu)而非理性分析(xi)。仅因为史前人类会像这样崩(beng)潰(kui)并不意味着我们必須(xu)这样做;我们可以运用理智。 我认为,AI 会决定直(zhi)接杀死人类的想法是一个深刻的范疇(chou)错误。AI 不是一个通过数十億(yi)年演(yan)化被激发參(can)与適(shi)者生存之战的生物,就像动物和我们一样。它是由人们建造、拥有、使用和控制的代码——计算机。它在某个时候会发展出自己的思(si)维,然后决定它有动机去试图杀死我们的想法是一种迷(mi)信的刻板(ban)印(yin)象。 简而言之,AI 没有意愿,没有目标,不想杀死你,因为它不是活着的。 现在,显然,有些人确信 AI 会杀死人类——“洗礼者”——他们因其可怕的警(jing)告而获得了大量的媒体关注,其中一些人声称已经研究这个主题数十年,并表示(shi)他们现在被他们所了解的知识嚇(xia)坏了。其中一些真正的技术创新者甚至都是这样。这些行动者主張(zhang)对 AI 实施各种奇(qi)怪(guai)和极端(duan)的限制,从禁止 AI 发展到对数據(ju)中心的军事空(kong)襲(xi)和核战争。他们认为,由于像我这样的人无法排(pai)除(chu) AI 未来的灾难性后果,我们必须采(cai)取謹(jin)慎(shen)的立场,以防止潜在的存在风险。 我的回(hui)应是,他们的立场是非科学的——有什么可测试的假设?什么可以证明这一假设不成立?我们如何知道我们正在进入一个危险區(qu)域?这些问题大多没有得到回答(da),除了“你无法证明它不会发生!”事实上,这些“洗礼者”的立场非常非科学和极端——关于数学和代码的陰(yin)谋论——并且已经呼(hu)籲(xu)采取身体暴(bao)力,所以我将做一些我通常不会做的事情,并质疑他们的动机。 具体来说,我认为有三(san)件事情正在发生: 首先,回想一下,约翰(han)·馮(feng)·諾(nuo)伊(yi)曼(man)对罗伯(bo)特·奧(ao)本海(hai)默(mo)有关他在创造核武(wu)器方面的作用——这有助于结束(shu)了二(er)战并防止了第(di)三次世界大战——的回应是:“有些人会承(cheng)认罪(zui)行以获得荣譽(yu)。”怎(zen)样才能以最引人注目的方式声称自己工作的重要性,而不显得过分自夸呢?这解释了实际上正在建造和资助AI的洗礼者的言辭(ci)和行动之間(jian)的不匹(pi)配(pei)——看他们的行动而不是他们的话。 其次,一些洗礼者实际上是走私者。有整个專(zhuan)业领域的“AI 安全专家”、“AI 伦理学家”、“AI 风险研究员”。他们被雇(gu)傭(yong)成为末(mo)日(ri)论者。 第三,在加利福(fu)尼(ni)亞(ya)州(zhou),我们因成千上萬(wan)的异端组织而名声大噪(zao),从 EST 到人民神廟(miao),从天堂(tang)之門(men)到曼森(sen)家族(zu)都有。其中许多,雖(sui)然不是全部,这些异端组织是无害的,甚至可能为在其中找(zhao)到家園(yuan)的疏(shu)離(li)人群(qun)服(fu)务。但是,有些确实非常危险,而且邪(xie)教通常很难跨(kua)越导致暴力和死亡的界線(xian)。 现实是,对于舊(jiu)金山(shan)灣(wan)区的所有人来说,显而易(yi)見(jian),即“AI 风险”已经演变成了一个邪教,并突然出现在全球媒体的关注和公共谈话中。这个邪教不仅吸(xi)引了邊(bian)緣(yuan)人物,还吸引了一些真正的行业专家和不少富豪(hao),包(bao)括(kuo)直到最近的 Sam Bankman-Fried。 正是因为这个邪教存在,才会有一些听起来非常极端的 AI 末日论者——并不是说他们实际上具有使其极端化合理的秘(mi)密(mi)知识,而是他们自己把(ba)自己激动到了狂(kuang)熱(re)狀(zhuang)态,确实是……非常极端。 这种类型的邪教并不新鲜——在西方,长期以来一直存在着千禧(xi)主义传统,它产生了启示录邪教。AI 风险邪教具有所有千禧主义末世邪教的特征。引用维基百(bai)科(我添(tian)加了一些内容): “千禧主义是指一个團(tuan)体或运动(AI 风险末日论者)相信社会将发生根(gen)本性的变革(AI 的到来),此后一切都将改变(AI 乌托邦、反乌托邦或者世界末日)。只(zhi)有戏剧性的事件(禁止 AI、对数据中心进行空袭、对未受监管的 AI 进行核打击)才能改变世界(防止 AI),并且这种变革預(yu)计将由一群虔诚和专注的人带来或幸存下来。在大多数千禧主义情况下,即将到来的灾难或战鬥(dou)(AI 启示或其预防)将被一个新的、凈(jing)化的世界(AI 禁令)所跟(gen)隨(sui),在这个世界中,信徒将获得回報(bao)(或至少被证明一直正确)。” 这种邪教模式是如此明显,以至于我很惊訝(ya)为什么更多的人没有看到它。 不要误会,邪教听起来很有趣(qu),他们的写作材(cai)料(liao)通常很有创意和迷人,他们的成员在晚(wan)宴(yan)和电视上也很引人入胜。但是,他们极端的信仰(yang)不应该决定法律和社会的未来——这显然是不可取的。 AI 风险 #2:AI 会毁了我们的社会吗? 第二个廣(guang)泛(fan)讨论的 AI 风险是,AI 将毁掉(diao)我们的社会,因为它产生的输出将是如此“有害”的,以这种邪教者的术语来说,即使我们没有被直接杀死,也会对人类造成深刻的伤害。 简而言之:如果机器人没有杀死我们,错误信息就会毁掉我们的社会。 这是一个相对較(jiao)新的末日论者擔(dan)憂(you),分支(zhi)出来并在一定程度上接管了我上面描(miao)述(shu)的“AI 风险”运动。事实上,最近 AI 风险术语从“AI 安全”变成了“AI 对齊(qi)”(用于担心社会“危险”人士(shi)使用 AI)。最初的 AI 安全人士对这种轉(zhuan)变感到沮(ju)喪(sang),盡(jin)管他们不知道该如何将其放(fang)回原处——他们现在主张将实际的 AI 风险主题重命名为“AI 不杀每个人主义”,虽然还没有被广泛采納(na),但至少这是明确的。 AI 社会风险声明的特点是其自己的术语“AI 对齐”。与什么对齐?人类價(jia)值(zhi)观。誰(shui)的人类价值观?哦(o),这就是事情变得棘(ji)手的地方。 恰(qia)好,我曾(zeng)親(qin)眼(yan)目睹(du)了一个相似(si)的情况——社交媒体的“信任和安全”之战。正如现在显而易见的那样,多年来社交媒体服务一直受到政府和活动家们的巨大压力,要求(qiu)封(feng)禁、限制、審(shen)查(zha)和其他方式压制各种内容。同样关于“仇(chou)恨(hen)言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧也被直接转移(yi)从社交媒体领域到“AI 对齐”这个新领域。 我从社交媒体战争中学到的主要经驗(yan)是: 一方面,没有絕(jue)对自由言论的立场。首先,包括美国在内的每个国家都会将某些内容视为違(wei)法。其次,有某些类型的内容,如儿童(tong)色(se)情和煽(shan)动暴力,几乎被所有社会普遍认为是无法容忍(ren)的——无论是否合法。因此,任何促(cu)进或产生内容(言论)的技术平臺(tai)都将有一些限制。 另(ling)一方面,一旦(dan)限制内容的框(kuang)架(jia)建立起来——例如針(zhen)对“仇恨言论”、特定伤害性詞(ci)语或虛(xu)假信息的限制——一系列(lie)政府机构、活动家压力团体和非政府实体将开始加速行动,并要求越来越多的审查和打压他们认为对社会和/或自己个人喜好构成威(wei)脅(xie)的言论。他们甚至会采取公然的重罪犯(fan)罪手段(duan)。在社交媒体领域,这种循(xun)環(huan)看起来可能永无止境,并得到我们精英(ying)權(quan)力结构的热情支持。这已经在社交媒体上持續(xu)了十年,只有某些特殊(shu)情况除外,而且越来越热烈(lie)。 因此,这就是现在围繞(rao)“AI 对齐”形成的动态。其拥护者声称有智慧来设计对社会有益的 AI 生成的言论和思想,并禁止对社会有害的 AI 生成的言论和思想。反对者认为,思想警察们极其傲(ao)慢(man)和自負(fu)——在美国至少往往是明目张膽(dan)的犯罪。 由于“信任和安全”和“AI 对齐”的拥护者都聚(ju)集(ji)在全球人口(kou)非常狹(xia)窄(zhai)的美国沿(yan)海精英階(jie)層(ceng)中,包括许多从事技术行业和写作的人士。我现在不会试图说服你们放棄(qi)这种想法,我只是要说明这是需求的本质,而且大多数世界上的人既(ji)不贊(zan)同你的意识形态,也不希望(wang)看到你获胜。 派(pai)系道德标準(zhun)所施加的社交媒体和 AI 的支配性正在加强,如果您(nin)不同意这种道德标准,那么您还应该意识到,对于 AI 被允许说/生成什么的争夺将比社交媒体审查的争夺更加重要。 AI 极有可能成为全球一切事物的控制层。 简而言之,不要讓(rang)思想警察压制AI。 AI 风险 #3: AI 会夺走我们所有的工作吗? 由于机械化、自动化、计算机化或 AI 而失(shi)去工作的恐惧已经是数百年来一直存在的恐慌,自机械织布(bu)机这样的机械设備(bei)问世以来就如此。尽管历史上每一次新的主要技术革命都带来了更多的高薪(xin)工作崗(gang)位,但每次这种恐慌浪(lang)潮總(zong)伴随着“这一次不同”的说法——这次它将最終(zhong)发生,这项技术将给人类便(bian)宜(yi)勞(lao)动力带来致命打击。然而,这从未发生过。 在近期的过去,我们经历了两次技术驱动的失业恐慌周期——2000 年代的外包恐慌和 2010 年代的自动化恐慌。尽管许多评论家、专家甚至科技行业高管在这两个十年中不斷(duan)地敲(qiao)打桌(zhuo)子,声称大规模失业即将到来,但截(jie)至 2019 年底——就在 COVID 疫(yi)情爆(bao)发之前——世界上的工作岗位比历史上任何时候都要多,而且工资也更高了。 尽管如此,这个错误的观念(nian)卻(que)不会消失。 而且,它又回来了。 这一次,我们终于拥有了一个将夺走所有工作岗位并使人类劳动力变得无关緊(jin)要的技术—— AI。这一次历史不会重演,AI 将导致大规模失业——而不是经济、就业和工资的快速增长——对吗? 不,不会发生这种情况——实际上,如果允许 AI 在整个经济中得到发展和普及,它可能会引发史上最显著和持久的经济繁荣,伴随着相应的创纪录的就业和工资增长。以下是原因。 自动化导致失业的言论者一直犯的核心错误被称为“劳动力謬(miu)误”。这种谬误是错误的观念,即在任何特定时刻经济中有一定数量的劳动力要完成,要么机器完成,要么人类完成——如果由机器完成,则将没有工作可供人类完成。 劳动总量谬误从幼(you)稚(zhi)的直覺(jiao)中自然而然地产生,但是这种幼稚的直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少投(tou)入而产生输出的增加。结果是商品和服务价格(ge)降(jiang)低。随着商品和服务价格的下降,我们花(hua)費(fei)在它们上面的费用更少,意味着我们现在拥有額(e)外的消费能力以購(gou)買(mai)其他物品。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——的创建,进而为那些在先前的工作中被机器取代的人创造新的工作岗位。结果是一个更大的经济,更高的物质繁荣,更多的产业、产品和工作机会。 但好消息并不止于此。我们还会得到更高的工资。这是因为,在个体工人层面上,市场将補(bu)償(chang)设置(zhi)为工人的边际生产率函(han)数。与传统企(qi)业中的工人相比,技术注入业务中的工人将更具生产力。雇主要么会因为他现在更有生产力而支付给该工人更多的工资,要么另一个雇主会出于自身利益这样做。结果是,通常情况下,引入技术到一个行业不仅会增加该行业的就业数量,还会提高工资。 总之,技术使人们更具生产力。这导致现有商品和服务的价格下降,工资上漲(zhang)。这反过来又促进了经济增长和就业增长,同时激励创造新的工作岗位和新的产业。如果市场经济得以正常运转,如果技术得以自由引入,那么这是一个永无止境的持续向(xiang)上的循环。因为,正如彌(mi)爾(er)頓(dun)·弗里德曼所观察到的,“人类的欲(yu)望和需求是无窮(qiong)无尽的”。技术注入的市场经济是我们接近实现每个人能够想象的一切东西的方式,但永远无法完全实现。这就是为什么技术不会摧毁就业的原因。 这些对于没有接觸(chu)过这些想法的人来说是如此震(zhen)撼(han),以至于您可能需要一些时间才能理解它们。但我保证我没有编造它们——实际上,您可以在标准经济学教科書(shu)中阅读有关它们的所有内容。 但这一次不同,您会认为。因为这一次,有了 AI,我们拥有可以替(ti)代所有人类劳动力的技术。 但是,使用我上面描述的原则,想象一下如果所有现有的人类劳动力都被机器替換(huan)会意味着什么? 这将意味着经济生产率增长的起飛(fei)速度将是绝对天文数字(zi),远远超出任何历史先例。现有商品和服务的价格将全面降至接近零(ling)。消费者福利将飆(biao)升。消费者支出能力将飙升。经济中的新需求将爆炸(zha)性增长。企业家将创造令人眼花繚(liao)亂(luan)的新产业、产品和服务,并尽可能快地雇用尽可能多的人和 AI 来满足所有新需求。 假设 AI 再次取代了这些劳动力?循环会重复,推动消费者福利、经济增长以及就业和工资增长更高。这将是一个直线向上的螺(luo)旋(xuan),达到亚当·斯密或卡(ka)尔·馬(ma)克思从未敢(gan)想象的物质乌托邦。 我们应该感到幸运。 AI 风险#4: AI 会导致严重的不平等吗? 对 AI 夺走工作岗位的担忧直接过渡(du)到下一个 AI 风险,假设 AI 确实夺走所有工作岗位。那么,难道这不会导致大规模和严重的财富不平等吗?AI 所有者将获得所有经济回报,而普通人一无所有。 这个理论的缺陷(xian)在于,作为技术的所有者,将其保留(liu)给自己并不符(fu)合您的利益——相反,将其銷(xiao)售给尽可能多的客(ke)戶(hu)符合您的利益。任何产品在全球范围内的最大市场是整个世界,80 亿人。因此,在现实中,每种新技术——即使开始时只在大公司或富有的消费者中销售——也会快速扩散(san),直至落(luo)入最大可能的大众市场手中,最终覆(fu)蓋(gai)到全球所有人。 一个经典(dian)的例子是马斯克在 2006 年公开发布的所謂(wei)“秘密计劃(hua)”: ...当然,这正是他现在所做的,也因此成为了世界上最富有的人。 关鍵(jian)在于最后那个观点。如果马斯克今天只賣(mai)给富人汽车,他会变得更富吗?不会。如果他只为自己制造汽车,他会比现在更富吗?当然不会。他通过将汽车销售给全球最大的市场——全世界——来最大化自己的利潤(run)。 简而言之,每个人都可以获得此类产品——正如我们过去看到的不仅是汽车,还包括电力、收音机、计算机、互联网、手机和搜(sou)索(suo)引擎(qing)。这些技术制造商的动机非常强烈,他们将尽可能地推动价格下降,使全球所有人都能够负担得起。这正是目前在 AI 领域已经发生的事情——这就是为什么您现在可以使用最先进的生成式 AI,而且甚至可以免费使用 Microsoft Bing 和 Google Bard 的原因——这也是未来将繼(ji)续发生的事情。不是因为这些供应商慷(kang)慨(kai),而恰恰是因为他们贪心——他们想要扩大市场规模,从而最大化利润。 因此,发生的情况恰恰相反,技术并没有推动财富的中央(yang)集权化,而是赋予了技术的个体客户——最终包括全球所有人——更多的权力,并占(zhan)据了大部分产生的价值。就像以前的技术一样,建立 AI 的公司——假设它们必须在自由市场中运作——将竞争激烈地使这种情况发生。 这并不意味着不平等在我们社会中不是一个问题。它确实存在,只是它不是由技术推动的,而是相反,它是由经济领域中最抵(di)制新技术、政府幹(gan)预最多以阻(zu)止采用新技术(特别是住(zhu)房(fang)、教育和医疗保健)的部门所推动的。 AI 和不平等的实际风险不是 AI 将导致更多的不平等,而是我们不允许利用 AI 来减少不平等。 AI 风险#5: AI 会导致坏人做坏事吗? 到目前为止,我已经解释了四(si)个最常被提出的 AI 风险,现在让我们来谈论第五(wu)个问题,也是我真正同意的问题: AI 将使坏人更容易做坏事。 从某种意义上说,技术是一种工具。从火和石(shi)頭(tou)开始,工具可以用于做好事——烹(peng)飪(ren)食(shi)物和建造房屋(wu)——也可以用于做坏事——烧人和毆(ou)打人。任何技术都可以用于好或坏。没错。而 AI 将使罪犯、恐怖(bu)分子和敌对政府更容易做坏事,这是毫(hao)无疑问的。 这导致一些人提議(yi),在这种情况下禁止使用 AI。不幸的是, AI 不是一种难以获得的某种神秘物质。相反,它是世界上最容易获得的材料——数学和代码。 显然, AI 已经广泛应用。你可以从成千上万的免费在线課(ke)程、书籍(ji)、论文和视頻(pin)中学习如何构建 AI,而且每天都有优秀的开源实现在扩散。 AI 就像空气——它将无处不在。要阻止这种情况,需要采取的专制压迫(po)措(cuo)施将是如此的苛刻——一个监视和控制所有计算机的世界政府?戴(dai)着黑(hei)色直升机的武裝(zhuang)警察抓(zhua)捕(bu)不听命令的 GPU? 因此,我们有两种非常简單(dan)的方法来应对坏人利用 AI 做坏事的风险,这正是我们应该关注的。 首先,我们已经制定了法律,以使几乎任何人使用 AI 做坏事都成为犯罪。黑入五角大樓(lou)?那是犯罪。从银行盜(dao)竊(qie)钱款?那也是犯罪。制造生物武器?那也是犯罪。实施恐怖袭击?那也是犯罪。我们可以简单地专注于在能够防止这些犯罪时进行预防,并在不能防止时进行起诉。我们甚至不需要新的法律——我不知道有哪一个已经被提议的 AI 的实际不良使用还不是非法的。如果发现新的不良用途(tu),我们将禁止该用途。 但是你会注意到我在那里漏(lou)掉了什么——我说我们应该首先关注在人工智能预防他们——这样的预防难道不意味着禁止人工智能吗?嗯(ng),还有另一种方法可以预防这类行为,那就是将 AI 用作防禦(yu)工具。使 AI 在好人手中变得强大,特别是那些防止坏事发生的好人。 例如,如果您担心 AI 产生虚假的人和虚假的视频,答案是构建新系统,使人们可以通过加密簽(qian)名验证自己和真实内容。在 AI 之前,数字化创建和修改真实和虚假的内容已经存在;解决问题的答案不是禁止文字处理器、Photoshop 或 AI,而是利用技术构建真正解决问题的系统。 因此,第二点,让我们采取重大措施将 AI 用于善良、合法、防御性的目的。让我们把 AI 应用于网絡(luo)防御、生物防御、打击恐怖主义以及我们所做的所有其他事情,以保护我们自己、我们的社区和我们的国家安全。 当然,世界上已经有许多聪明人正在做这件事——但如果我们把目前所有沈(chen)迷于禁止 AI 的努(nu)力和智慧应用于利用 AI 防范坏人做坏事,我认为毫无疑问,有 AI 的世界将比我们今天生活的世界更加安全。 应该采取什么行动? 我提出了一个简单的计划: 这就是我们如何使用 AI 拯救世界。 我用两个简单的陳(chen)述结束本文。 AI 的发展始于 20 世纪 40 年代,同时也是计算机的发明。第一篇关于神经网络——我们今天所拥有的 AI 架构——的科学论文发表于 1943 年。在过去 80 年里,整整一代人的 AI 科学家出生、上学、工作,并在许多情况下离世,而没有看到我们现在正在收获的回报。他们每个人都是传奇。 今天,越来越多的工程师——其中许多人很年輕(qing),可能有祖(zu)父(fu)母(mu)甚至曾祖父母参与了 AI 背(bei)后的思想创造——正在努力使 AI 成为现实。他们都是英雄(xiong),每一个人。我和我的公司很高興(xing)能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。返(fan)回搜狐(hu),查看更多 責(ze)任编輯(ji):