不再打扰!拆除房产广告,宣传更高效。

不再打扰!拆除房产广告,宣传更高效。 - 从四个方面详细阐述新标题

1. 拆除房产广告的必要性

房产广告是各个行业中最烦人的一种广告之一。房产广告不仅污染了城市环境,还对人们的生活产生了很大的干扰。当人们尝试在公交车上或者在地铁上休息时,他们可能会被房产广告的大字标题和图像所打扰。因此,拆除房产广告是十分必要的。除了改善居民生活质量外,这也有助于城市形象的提升。拆除房产广告的实施可以减少城市垃圾,提高城市形象,减少市民生活干扰。

2. 宣传更高效的方式

在拆除房产广告之后,市民还需要了解有关中介公司和房产销售的信息。为了让市民更好地了解相关信息,宣传方式也需要更加高效。一些在线房地产平台和房产网站可以成为市民了解相关信息的主要渠道。例如,购房者可以在这些网站上了解到不同的房地产项目和销售方案,甚至还可以与销售代表交流。这种方式可以让购房者更好地了解当前房地产市场的情况,并且可以选择更好的房屋和交易方式。

3. 参考相关博客文章

在评估拆除房产广告的必要性和采取更高效的宣传方式之前,您可能想了解有关该主题的更多详细信息。这时可以参考一些有关博客文章。这些文章旨在帮助您更好地了解相关问题,从而使更好地做出决策。一些著名网站,如知乎、简书和天涯等,可以为您提供有关房产广告和购房的详细信息。这些文章可以帮助您更好地了解市场和购房时需要注意的问题。

4. 结合社交媒体

社交媒体已经成为了市民获取信息和交流的主要手段。拆除房产广告和采用更高效的宣传方式后,社交媒体也可以成为房产销售的重要宣传途径。例如,中介公司可以在社交媒体上发布推广贴。这样一方面可以节省广告费用,另一方面可以更好地满足市民的需求。

总结

在这篇文章中,我们从四个方面详细阐述了不再打扰!拆除房产广告,宣传更高效。一文的主题。拆除房产广告是十分必要的,这有助于改善居民的生活质量,并且可以提高城市形象。同时,采取更高效的宣传方式也可以更好地满足市民的需求。在评估拆除房产广告和采用更高效的宣传方式之前,可以参考一些有关博客文章或者结合社交媒体来了解相关信息。拆除房产广告和采取更高效的宣传方式是现代化城市管理的重要组成部分,通过创造更好的生活环境来改善市民的生活质量。同时,这也有助于为城市的经济发展和社会发展奠定坚实的基础。

问答话题

Q1:如何才能拆除房产广告?A1:目前,有关部门已经开始推行拆除房产广告的计划。需要市民的积极参与,如果发现未获得许可的广告,请及时报告有关部门。此外,还可以采用在线房地产平台和房产网站进行信息获取。Q2:社交媒体如何可以更好地满足市民的需求?A2:社交媒体可以成为房地产销售的重要宣传途径。例如,中介公司可以在社交媒体上发布推广贴。这样一方面可以节省广告费用,另一方面可以更好地满足市民的需求。此外,社交媒体还可以用于市民之间的信息交流和互动,例如,讨论当前的房地产市场趋势、不同的购房方案等。

不再打扰!拆除房产广告,宣传更高效。随机日志

关于政府。不得不否认,因为做论坛的原因,和很多部门或部门领导都有接触。但是接触不代表我被收买。政府算是对我们极度宽容的,只要不是涉及政治的,基本不会处理!删除的原因很简单:网友想维权,达到自己的目的后强烈要求我们删除。

1、可信任设备管理,拥有了更多用于安全保护的管理选项。

2、优化漫画打包器功能,修正一些隐性BUG

3、视频转场特效正式发布,拥有各种绚丽效果,连环画全面升级,推出酷炫文字特效、作品导入导出、鼠标滑轮缩放等数十种新功能,改进了编辑响应速度,提高了时间刻度准确性,增加程序意外崩溃或电脑断电重启后正在编辑作品可自动恢复功能更多,限制了外部flv文件直接替换本地素材上传,修复了其它多个细节问题收起

4、全道路覆盖全场景管理,可充分降低每一个门店的经营成本,做到盈利率达到顶峰。

5、当然了如果加速效果还是不理想,那么这里小编同样为你推荐了一些其他专业的加速器,比如网易UU,雷神加速器,奇游等,挑选一个来试一试吧。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>最(zui)強(qiang)API調(tiao)用(yong)模(mo)型(xing)來(lai)了(le)!基(ji)於(yu)LLaMA微(wei)调,性(xing)能(neng)超(chao)過(guo)GPT-4

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):拉(la)燕(yan)

【新智元導(dao)讀(du)】UC伯(bo)克(ke)利(li)華(hua)人(ren)博(bo)士(shi)生(sheng)搞(gao)了個(ge)Gorilla,可(ke)以(yi)靈(ling)活(huo)调用各(ge)種(zhong)API,性能超过GPT-4。

繼(ji)羊(yang)駝(tuo)之(zhi)後(hou),又(you)来了个以動(dong)物(wu)命(ming)名(ming)的(de)模型,這(zhe)次(ci)是(shi)大(da)猩(xing)猩(Gorilla)。

雖(sui)說(shuo)目(mu)前(qian)LLM風(feng)頭(tou)正(zheng)旺(wang),進(jin)展(zhan)頗(po)多(duo),在(zai)各种任(ren)務(wu)中(zhong)的性能表(biao)現(xian)也(ye)可圈(quan)可點(dian),但(dan)这些(xie)模型通(tong)过API调用有(you)效(xiao)使(shi)用工(gong)具(ju)的潛(qian)力(li)還(hai)亟(ji)待(dai)挖(wa)掘(jue)。

即(ji)使對(dui)于今(jin)天(tian)最先(xian)进的LLM,比(bi)如(ru)GPT-4,API调用也是壹(yi)項(xiang)具有挑(tiao)戰(zhan)性的任务,主(zhu)要(yao)是由(you)于它(ta)們(men)無(wu)法(fa)生成(cheng)準(zhun)確(que)的輸(shu)入(ru)參(can)數(shu),並(bing)且(qie)LLM容(rong)易(yi)对API调用的錯(cuo)誤(wu)使用產(chan)生幻(huan)覺(jiao)。

这不(bu),研(yan)究(jiu)人員(yuan)搞了个Gorilla,一个經(jing)过微调的基于LLaMA的模型,它在编寫(xie)API调用上(shang)的性能甚(shen)至(zhi)超过了GPT-4。

而(er)當(dang)與(yu)文(wen)檔(dang)檢(jian)索(suo)器(qi)相(xiang)結(jie)合(he)時(shi),Gorilla同(tong)樣(yang)展示(shi)出(chu)了强大的性能,使用戶(hu)更(geng)新或(huo)版(ban)本(ben)變(bian)化(hua)变得(de)更加(jia)灵活。

此(ci)外(wai),Gorilla还大大緩(huan)解(jie)了LLM會(hui)经常(chang)遇(yu)到(dao)的幻觉問(wen)題(ti)。

為(wei)了評(ping)估(gu)該(gai)模型的能力,研究人员还引(yin)入了API基准,一个由HuggingFace、TorchHub和(he)TensorHub API組(zu)成的綜(zong)合数據(ju)集(ji)

Gorilla

LLMs的各项强大的能力不用再(zai)多介(jie)紹(shao),包(bao)括(kuo)自(zi)然(ran)对話(hua)能力、数學(xue)推(tui)理(li)能力,以及(ji)程(cheng)序(xu)合成在能力什(shen)麽(me)的。

然而,盡(jin)管(guan)性能强大,但LLM仍(reng)然会受(shou)到一些限(xian)制(zhi)。并且,LLM也需(xu)要重(zhong)新訓(xun)練(lian)以及时更新他(ta)们的知(zhi)識(shi)庫(ku),以及推理能力。

通过授(shou)權(quan)LLM可使用的工具,研究人员可以允(yun)許(xu)LLM訪(fang)问巨(ju)大的、不斷(duan)变化的知识库,完(wan)成復(fu)雜(za)的計(ji)算(suan)任务。

通过提(ti)供(gong)对搜(sou)索技(ji)術(shu)和数据库的访问,研究人员可以增(zeng)强LLM的能力,以處(chu)理更大和更动態(tai)的知识空(kong)間(jian)。

同样,通过提供计算工具的使用,LLM也可以完成复杂的计算任务。

因(yin)此,科(ke)技巨头已(yi)经開(kai)始(shi)嘗(chang)試(shi)整(zheng)合各類(lei)插(cha)件(jian),使LLM能夠(gou)通过API调用外部(bu)工具。

從(cong)一个規(gui)模較(jiao)小(xiao)的手(shou)工编碼(ma)的工具,到能够调用一个巨大的、不断变化的雲(yun)API空间,这种轉(zhuan)变可以將(jiang)LLM转变为计算基礎(chu)設(she)施(shi),以及網(wang)絡(luo)所(suo)需的主要界(jie)面(mian)。

从預(yu)訂(ding)整个假(jia)期(qi)到舉(ju)辦(ban)一次会議(yi)的任务,可以变得像(xiang)与能够访问航(hang)班(ban)、汽(qi)車(che)租(zu)賃(lin)、酒(jiu)店(dian)、餐(can)飲(yin)和娛(yu)樂(le)网络API的LLM交(jiao)談(tan)一样簡(jian)單(dan)。

然而,许多先前的工作(zuo)将工具整合到LLM中,考(kao)慮(lv)的是一小套(tao)有据可查(zha)的API,可以很(hen)容易地(di)註(zhu)入到提示中。

支(zhi)持(chi)一个由潜在的数百(bai)萬(wan)个变化的API组成的网络规模的集合,需要重新思(si)考研究人员如何(he)整合工具的方(fang)法。

现在已经不可能在一个单一的環(huan)境(jing)中描(miao)述(shu)所有的API了。许多API会有重疊(die)的功(gong)能,有細(xi)微的限制和約(yue)束(shu)。在这种新的环境中简单地评估LLM需要新的基准。

在本文中,研究人员探(tan)索了使用自我(wo)结構(gou)微调和检索的方法,以使LLM能够准确地从使用其(qi)API和API文档表達(da)的大量(liang)、重叠和变化的工具集中进行(xing)選(xuan)擇(ze)。

研究人员通过从公(gong)共(gong)模型中心(xin)刮(gua)取(qu)ML API(模型)来构建(jian)API Bench,这是一个具有复杂且经常重叠功能的大型API語(yu)料(liao)库。

研究人员选择了三(san)个主要的模型中心来构建数据集:TorchHub、TensorHub和HuggingFace。

研究人员詳(xiang)尽地包括了TorchHub(94个API调用)和TensorHub(696个API调用)中的每(mei)一个API调用。

对于HuggingFace,由于模型的数量很大,所以研究人员选择了每个任务类別(bie)中下(xia)載(zai)最多的20个模型(總(zong)共925个)。

研究人员还使用Self-Instruct为每个API生成了10个用户问题的prompt。

因此,数据集中的每个條(tiao)目都(dou)成为了一个指(zhi)令(ling)参考API对。研究人员采(cai)用常見(jian)的AST子(zi)樹(shu)匹(pi)配(pei)技术来评估生成的API的功能正确性。

研究人员首(shou)先将生成的代(dai)码解析(xi)成AST树,然后找(zhao)到一个子树,其根(gen)節(jie)点是研究人员關(guan)心的API调用,然后使用它来索引研究人员的数据集。

研究人员检查LLMs的功能正确性和幻觉问题,反(fan)饋(kui)相應(ying)的准确性。然后,研究人员再对Gorilla进行微调,这是一个基于LLaMA-7B的模型,使用研究人员的数据集进行文档检索的操(cao)作。

研究人员發(fa)现,Gorilla在API功能准确性以及減(jian)少(shao)幻觉错误方面明(ming)顯(xian)優(you)于GPT-4。

研究人员在圖(tu)1中展示了一个實(shi)例(li)。

此外,研究人员对Gorilla进行的检索感(gan)知训练使得该模型能够適(shi)应API文档的变化。

最后,研究人员还展示了Gorilla理解和推理约束的能力。

另(ling)外,在幻觉方面,Gorilla也表现出色(se)。

下图是精(jing)度(du)和幻觉在四(si)种情(qing)況(kuang)下的对比,零(ling)样本(即,沒(mei)有任何检索器)以及使用BM25、GPT和Oracle的检索器。

其中BM25和GPT是常用的检索器,而Oracle检索器則(ze)会以100%的相关性返(fan)回(hui)相关文档,表示一种上限。

图中准确性更高(gao)、幻觉更少的即为效果(guo)更好(hao)。

在整个数据集中,Gorilla在提高准确性的同时减少了幻觉。

为了收(shou)集数据集,研究人员细致(zhi)地記(ji)錄(lu)了HuggingFace的The Model Hub、PyTorch Hub和TensorFlow Hub模型的所有在線(xian)模型。

然而,其中很多模型的文档都不咋(za)样。

为了过濾(lv)掉(diao)这些質(zhi)量不高的模型,研究人员最終(zhong)从每个領(ling)域(yu)挑选出前20个模型。

研究人员考虑了多模态数据的7个领域,CV的8个领域,NLP的12个领域,音(yin)頻(pin)的5个领域,表格(ge)数据的2个领域,以及强化学習(xi)的2个领域。

过滤后,研究人员从HuggingFace得到了总共925个模型。TensorFlow Hub的版本分(fen)为v1和v2。

最新的版本(v2)总共有801个模型,研究人员处理了所有的模型。在过滤掉幾(ji)乎(hu)没有信(xin)息(xi)的模型后,剩(sheng)下了626个模型。

与TensorFlow Hub类似(si),研究人员从Torch Hub得到95个模型。

在self-instruct範(fan)式(shi)的指导下,研究人员采用GPT-4来生成合成指令数据。

研究人员提供了三个语境中的例子,以及一个参考的API文档,并責(ze)成模型生成调用API的真(zhen)实用例。

研究人员特(te)别指示该模型在創(chuang)建指令时不要使用任何API名稱(cheng)或提示。研究人员为三个模型中心的每一个构建了六(liu)个例子(指令-API对)。

这18个点,是唯(wei)一手工生成或者(zhe)修(xiu)改(gai)过的数据。

而Gorilla,则是检索感知的LLaMA-7B模型,專(zhuan)門(men)用于API调用。

如图3所示,研究人员采用自我构造(zao)来生成{指令,API}对。

为了对LLaMA进行微调,研究人员将其转換(huan)为用户——代理的聊(liao)天式对话,其中每个数据点都是一个对话,用户和代理輪(lun)流(liu)交谈。

然后研究人员在基础的LLaMA-7B模型上进行標(biao)准的指令微调。在实驗(yan)中,研究人员在有和没有检索器的情况下分别训练了Gorilla。

由于API的功能是一种通用语言(yan),使不同的系(xi)統(tong)之间能够进行有效地溝(gou)通,正确使用API可以提高LLM与更廣(guang)泛(fan)的工具进行互(hu)动的能力。

在研究人员收集的三个大规模数据集中,Gorilla的性能超过了最先进的LLM(GPT-4)。Gorilla产生了可靠(kao)的API调用ML模型,且没有产生幻觉,并能在挑选API时滿(man)足(zu)约束条件。

由于希(xi)望(wang)找到一个具有挑战性的数据集,研究人员选择了ML APIs,因为它们的功能相似。专注于ML领域的API的潜在缺(que)点是,如果在有傾(qing)向(xiang)的数据上进行训练,它们就(jiu)有可能产生有偏(pian)见的预測(ce),可能对某(mou)些子群(qun)體(ti)不利。

为了消(xiao)除(chu)这种顧(gu)虑并促(cu)进对这些API的深(shen)入了解,研究人员正在发布(bu)更加广泛的数据集,其中包括超过11000个指令——API对。

在下图这个示例中,研究人员使用抽(chou)象(xiang)语法树(AST)子树匹配来评估API调用的正确性。

抽象语法树是源(yuan)代码结构的树形(xing)表示,有助(zhu)于更好地分析和理解代码。

首先,研究人员从Gorilla返回的API调用(左(zuo)側(ce))构建相关的API树。然后将其与数据集进行比较,以查看(kan)API数据集是否(fou)具有子树匹配。

在上面的示例中,匹配的子树以棕(zong)色突(tu)出显示,表示API调用确实是正确的。其中Pretrained=True是一个可选参数。

这一資(zi)源将为更广泛的社(she)區(qu)提供服(fu)务,作为研究和衡(heng)量现有API的寶(bao)貴(gui)工具,为更公平(ping)和优化使用機(ji)器学习做(zuo)出貢(gong)獻(xian)。

参考资料:

https://arxiv.org/pdf/2305.15334.pdf返回搜狐(hu),查看更多

责任编辑:

发布于:河南洛阳伊川县