地铁二号线,广告全覆盖!

地铁二号线,广告全覆盖!这个标题让我想到了一件事情。在我刚来这座城市的时候,我总是会迷路,不知道该怎么去某个地方。但是,现在,如果我要去某个地方,我只需要做一件事情:查看地铁二号线的站点和广告。这篇文章将从几个方面详细介绍地铁二号线的广告覆盖率。

地铁二号线的广告覆盖范围

地铁二号线是这座城市的一个重要的交通干线,也是广告商的一个重要资源。在这条地铁线路上,你会看到各种各样的广告。这些广告不仅宣传了产品和服务,还为地铁用户提供了便利。因为这些广告不仅覆盖了地铁站点,还覆盖了地铁车厢。

地铁二号线的广告覆盖范围极广。这些广告不仅包括商品和服务的广告,还包括政府宣传、公益广告、文化活动的广告等等。因此,地铁二号线的广告在城市的广告市场中占据了一个重要的地位。

地铁二号线广告的优势

地铁二号线的广告有很多优势。首先,地铁二号线是城市的重要交通干线,每天有大量的人在这里等待地铁、乘坐地铁。这些人有着各种各样的消费需求,地铁二号线上的广告可以满足他们的需求,让他们更容易地获取到信息。

其次,地铁二号线的乘客群体广泛。在地铁上,你可以看到各个年龄段的人,他们有不同的职业和收入水平。因此,地铁二号线上的广告可以满足不同的人群的需求。

另外,地铁二号线上的广告可以通过不同的形式和媒介展示。无论是地铁站台上的海报广告、车厢内的电视广告、车厢外的列车标识广告,都可以在不同的场合、不同的人群中发挥作用。

地铁二号线广告的未来发展

地铁二号线广告的未来发展潜力巨大。随着城市的不断发展,地铁二号线将会连接更多的城区和商业中心,吸引更多的人群。这将为广告商提供更多的机会和平台,让他们更好地宣传产品和服务。

同时,随着科技的不断发展,地铁二号线上的广告也将逐渐智能化。我们可以通过人脸识别技术、智能广告牌等方式让广告更加精准、个性化、互动化。

地铁二号线广告的影响

地铁二号线的广告影响力不仅仅体现在产品和服务方面,还涉及到城市文化、旅游、公益事业等方面。例如,在地铁上看到的某个博物馆的广告,可以让你想起这个城市有这样一个博物馆;你可以通过这个广告去参观这个博物馆,增进自己的文化知识;你也可以通过这个广告了解这个博物馆的公益活动,参与到城市的公益事业中来。

因此,地铁二号线的广告不仅仅是商业广告,更是城市文化、旅游、公益事业的重要组成部分。这种影响力是仅仅通过传统媒介和渠道无法达到的。

总结

地铁二号线,广告全覆盖!这个标题告诉我们,地铁二号线是这座城市广告市场的重要资源。地铁二号线的广告覆盖范围广泛,乘客群体广泛,具有巨大的发展潜力。地铁二号线的广告不仅仅是商业广告,还涉及到城市文化、旅游、公益事业等方面。因此,地铁二号线的广告影响力巨大,是城市发展和进步的重要推手。

问答话题

问题一:地铁二号线的广告覆盖范围有多广?

答:地铁二号线的广告覆盖范围非常广泛,不仅覆盖了地铁站点,还覆盖了地铁车厢。这些广告不仅包括商品和服务的广告,还包括政府宣传、公益广告、文化活动的广告等等。

问题二:地铁二号线广告有哪些优势?

答:地铁二号线的广告有很多优势。首先,地铁二号线是城市的重要交通干线,每天有大量的人在这里等待地铁、乘坐地铁。这些人有着各种各样的消费需求,地铁二号线上的广告可以满足他们的需求,让他们更容易地获取到信息。其次,地铁二号线的乘客群体广泛,在地铁上,你可以看到各个年龄段的人,他们有不同的职业和收入水平。因此,地铁二号线上的广告可以满足不同的人群的需求。

地铁二号线,广告全覆盖!随机日志

连接测试:查看「NAT类型」为「A」即可流畅联机

1、支持在改变拍速时实时拉伸音频剪辑,且保持音调

2、根据制图综合的分类,制图综合分为地理事物类型的综合、地理事物数量的综合和地理事物形状的综合。所以下面将分别根据这三层次的制图综合对中国地图的制图综合展开说明。

3、接着在打开的夸克组成当中点击右上角的设置图标;

4、注意事项:游戏修改器需要手机root才能正常使用!

5、如果您回到家后想连接控制在学校或公司里自己的电脑,很多人会想到使用Windows远程桌面连接。但如果你要连接的电脑位于内网,即路由器(Router)或防火墙后方(电脑是内部IP),那样就必须在路由器上做一些设定端口映射之类的设置才有办法连上,而网管也不太可能帮您设定的。这时TeamViewer无疑就是最佳的解决方案了。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>清(qing)華(hua)唐(tang)傑(jie)新(xin)作(zuo)WebGLM:參(can)數(shu)100億(yi)、主(zhu)打(da)聯(lian)網(wang)搜(sou)索(suo),性(xing)能(neng)超(chao)OpenAI WebGPT

來(lai)源(yuan):量(liang)子(zi)位(wei)

清华唐杰團(tuan)隊(dui)的(de)新作来了(le):

WebGLM,壹(yi)個(ge)参数100亿的联网問(wen)答(da)聊(liao)天(tian)機(ji)器(qi)人(ren)(論(lun)文(wen)入(ru)選(xuan)KDD2023)。

妳(ni)可(ke)以(yi)问它(ta)任(ren)何(he)问題(ti),然(ran)後(hou)它將(jiang)列(lie)舉(ju)出(chu)网上(shang)(例(li)如(ru)維(wei)基(ji)百(bai)科(ke)、相(xiang)關(guan)官(guan)网)相关的文章(zhang)鏈(lian)接(jie),整(zheng)理(li)出答案(an)。

比(bi)如:

ChatGPT的核(he)心(xin)技(ji)術(shu)是(shi)什(shen)麽(me)?

或(huo)者(zhe):

誰(shui)提(ti)出的Music Transformer?它的原(yuan)理是什么?

再(zai)或者:

原神(shen)3.5版(ban)本(ben)怎(zen)么樣(yang)?

沒(mei)有(you)高(gao)薪(xin)工(gong)作,怎么在(zai)一線(xian)城(cheng)市(shi)生(sheng)活(huo)?(手(shou)動(dong)狗(gou)頭(tou))

……

它都(dou)能給(gei)出有理有據(ju)的回(hui)答。

据介(jie)紹(shao),在性能對(dui)比測(ce)試(shi)中(zhong),WebGLM的水(shui)平(ping)已(yi)經(jing)高於(yu)OpenAI 135亿参数的WebGPT,在人類(lei)評(ping)估(gu)中,甚(shen)至(zhi)與(yu)1750亿参数的模(mo)型(xing)不(bu)相上下(xia)。

那(na)么,它是如何訓(xun)練(lian)的?

可以上网的清华系(xi)WebGLM

据介绍,WebGLM的目(mu)標(biao)是通(tong)過(guo)Web搜索和(he)檢(jian)索功(gong)能,增(zeng)強(qiang)預(yu)训练大(da)語(yu)言(yan)模型,同(tong)時(shi)可以進(jin)行(xing)高效(xiao)的實(shi)際(ji)部(bu)署(shu)。

為(wei)此(ci),作者基于三(san)種(zhong)策(ce)略(lve)进行開(kai)發(fa)。

首(shou)先(xian)是大模型增强检索器。

它主要(yao)是用(yong)于增强模型相关网絡(luo)內(nei)容(rong)的检索能力(li),在给定(ding)查(zha)詢(xun)的情(qing)況(kuang)下查找(zhao)相关引(yin)用,以便(bian)后面(mian)更(geng)好(hao)地(di)準(zhun)確(que)回答问题。

它有兩(liang)个階(jie)段(duan):粗(cu)粒(li)度(du)web搜索和細(xi)粒度LLM增强密(mi)集(ji)检索。

其(qi)次(ci)是自(zi)举生成(cheng)器。

它利(li)用GLM(比如清华之(zhi)前(qian)发布(bu)的雙(shuang)语开源预训练模型GLM-130B)的能力为问题生成回復(fu),提供(gong)詳(xiang)细的答案。

利用該(gai)生成器,作者得(de)到(dao)WebGLM-QA——一个LLM自举引用和長(chang)程(cheng)的QA数据集。

它通过上下文學(xue)習(xi)等(deng)策略进行清洗(xi)和过濾(lv),最(zui)終(zhong)包(bao)括(kuo)45k的高質(zhi)量过滤样本和83k的噪(zao)聲(sheng)样本。

WebGLM的backbone就(jiu)是一个在该数据集上训练的GLM模型。

最后是基于人类偏(pian)好的打分(fen)器。

它通过優(you)先考(kao)慮(lv)人类偏好而(er)非(fei)昂(ang)貴(gui)的專(zhuan)家(jia)反(fan)饋(kui)来评估生成回复的质量,确保(bao)系統(tong)能夠(gou)產(chan)生有用和吸(xi)引人的内容。

以上三大組(zu)件(jian)最终按(an)順(shun)序(xu)形(xing)成WebGLM的pipeline:

可以看(kan)到,正(zheng)好三个模塊(kuai),对應(ying)前面介绍的三部分,其中:

LLM增强检索器會(hui)将前五(wu)个最相关的頁(ye)面作为参考源,讓(rang)自举生成器生成多(duo)个答案,最终打分器选出最可能符(fu)合(he)人类偏好的那一个作为最终輸(shu)出。

性能超OpenAI WebGPT

除(chu)了WebGLM本身(shen),唐杰团队此次還(hai)提出了一个网络增强问答系统的评估标准,评估对象(xiang)既(ji)包括参考文獻(xian),也(ye)包括最终回答。

其中前者衡(heng)量相关性、信(xin)息(xi)密度、真(zhen)实性(無(wu)事(shi)实錯(cuo)誤(wu))、毒(du)性(不含(han)暴(bao)力色(se)情等信息)和社(she)会偏見(jian)程度這(zhe)5个维度;后者則(ze)衡量流(liu)暢(chang)度、正确性、引用准确性、客(ke)觀(guan)性和冗(rong)余(yu)程度。

他(ta)們(men)用WebGPT(来自OpenAI,基于GPT-3进行微(wei)調(tiao))演(yan)示(shi)网站(zhan)提供的272个问题进行对比评估,並(bing)招(zhao)募(mu)了15个学歷(li)为碩(shuo)士(shi)的誌(zhi)願(yuan)者打分。

最终結(jie)果(guo)如下:

(“Rel.”、“ Den.”……分別(bie)对应上面說(shuo)的10个指(zhi)标。)

可以看到,盡(jin)管(guan)WebGLM的搜索结果略遜(xun)于WebGPT-175B,但(dan)遠(yuan)好于Perplexity.ai和WebGPT-13B(左(zuo)邊(bian)的参考文献评估)。

值(zhi)得一提的是,WebGLM检索过程只(zhi)使(shi)用了一些(xie)傳(chuan)统的基于單(dan)詞(ci)的算(suan)法(fa)和两个累(lei)計(ji)参数量不超过300M的Contriever。

此外(wai),WebGLM在计算性能和时間(jian)消(xiao)耗(hao)方(fang)面也明(ming)顯(xian)优于WebGPT-13B、并与175B不相上下。

而在最终结果方面,WebGLM在流畅度、真实性和冗余度方面均(jun)獲(huo)得最高得分,正确性指标上则接近(jin)WebGPT-175B,远高于Perplexity.ai和WebGPT-13B。

作者表(biao)示,这表明WebGLM可以以更低(di)的成本获得更高的性能。

部署与训练

WebGLM发布即(ji)开源。

要想(xiang)部署它,需(xu)要從(cong)SerpAPI官网获得一个密鑰(yao),用于在搜索过程中获取(qu)搜索结果。

检索器的權(quan)重(zhong)可从清华雲(yun)上下載(zai)。

運(yun)行该模型的方式(shi)有两种:一是命(ming)令(ling)行界(jie)面,二(er)是Web服(fu)務(wu)形式,并且(qie)包含WebGLM-2B和WebGLM-10B两种可选模型。

你也可以自己(ji)训练WebGLM,官方已提供好了生成器和检索器的训练数据供下载~

论文地址(zhi):

https://arxiv.org/abs//2306.07906

GitHub主页:

https://github.com/THUDM/WebGLM返(fan)回搜狐(hu),查看更多

責(ze)任編(bian)輯(ji):

发布于:山东济宁曲阜市