为什么b站没广告

为什么B站没有广告?

在中国的互联网环境中,广告已经成为了一种非常常见的现象。无论是浏览网页还是观看视频,我们都会频繁看到各种各样的广告。然而,在这个充斥着广告的环境中,B站却成为了一个鲜有广告的平台。那么,为什么B站没有广告呢?

B站视频

首先,我们需要明确一点,B站并不是没有广告,而是少有广告。B站在它的用户界面中,确实有很少的广告出现,而且这些广告都是非常有价值的。这些广告大多数都是来自于B站的合作伙伴,例如电影制片厂、游戏开发商、音乐唱片公司等等。这些广告都是非常有针对性的,它们都会定向于B站的用户群体,因此这些广告是非常值得关注的。

B站广告

然而,为什么B站可以做到少有广告呢?这可以从B站的商业模式上得到解释。B站的商业模式主要是以会员制度为核心的。B站会员制度的主要目的是为了给B站的用户提供更好的服务,例如更高质量的视频、更多的福利等等。这个商业模式不仅能够为B站带来稳定的收入,而且还可以让B站的用户获得更好的体验。因此,B站可以少有广告,而且做到非常有价值的广告。

结论

总的来说,B站之所以可以做到少有广告,主要是因为它的商业模式和合作伙伴。B站的会员制度和与各大娱乐公司的合作,让它可以为用户提供更好的服务,同时也可以少有广告。这个商业模式不仅可以让B站保持稳定的收入,而且还可以让B站的用户获得更好的体验。因此,如果你是一个B站的用户,你不仅可以享受到高质量的视频,还可以少有广告的美好体验。

B站直播

为什么b站没广告随机日志

和上市公司声网环信合作,提供更可靠流畅的及时通讯服务;

1、提供T永久免费容量。可供用户存储海量数据。

2、新增视频在线播放功能:无需下载,即可观看

3、目前市面上主流的软件就是云译通,既能学习相关的文章,也能借助他写出地道的外语文章。

4、企业文件管理模板化:通过文件/文件夹模板和权限模板,快速构建企业文件管理体系

5、已知有些版权文件和敏感资源无法进行下载。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>威(wei)大(da)哥(ge)大等(deng)聯(lian)合(he)發(fa)文(wen)!最(zui)新(xin)多(duo)模(mo)態(tai)大模型(xing)LLaVA問(wen)世(shi),水(shui)平(ping)直(zhi)逼(bi)GPT-4

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):拉(la)燕(yan)

【新智元導(dao)讀(du)】微(wei)軟(ruan)&哥大联合发表(biao)視(shi)覺(jiao)指(zhi)令(ling)微調(tiao)論(lun)文,LLaVA出(chu)爐(lu)!

视觉指令微调火(huo)了(le)。

這(zhe)篇(pian)论文名(ming)為(wei)Visual Instruction Tuning,由(you)威斯(si)康(kang)星(xing)大學(xue)麥(mai)迪(di)遜(xun)分(fen)校(xiao),微软研(yan)究(jiu)院(yuan)和(he)哥倫(lun)比(bi)亞(ya)大学共(gong)同(tong)出品(pin)。

作(zuo)者(zhe)包(bao)括(kuo)Haotian Liu,Chunyuan Li,Qingyang Wu和Yong Jae Lee。

同時(shi),研究人(ren)員(yuan)也(ye)在(zai)GitHub上(shang)開(kai)源(yuan)了他(ta)們(men)的(de)代(dai)碼(ma)、模型和數(shu)據(ju)集(ji)。论文也发布(bu)在了Arxiv上。

講(jiang)解(jie)

那(na)麽(me)LLaVA的功(gong)能(neng)究竟(jing)是(shi)什(shen)么呢(ne)?如(ru)果(guo)壹(yi)頭(tou)紮(zha)進(jin)论文,不(bu)熟(shu)悉(xi)的朋(peng)友(you)可(ke)能會(hui)有(you)些(xie)陌(mo)生(sheng)。

我(wo)们先(xian)看(kan)看LLaVA自(zi)己(ji)怎(zen)么說(shuo)。

以(yi)上回(hui)答(da)生成(cheng)自LLaVA的Chatbot,我輸(shu)入(ru)的问題(ti)是,LLaVA的功能是什么,用(yong)戶(hu)該(gai)如何(he)利(li)用它(ta)?

回答如下(xia):

LLaVA是一個(ge)大語(yu)言(yan)和视觉助(zhu)手(shou),在UW Madison WAIV實(shi)驗(yan)室(shi)經(jing)受(shou)的訓(xun)練(lian)。LLaVA被(bei)設(she)計(ji)出來(lai)的目(mu)的,就(jiu)是幫(bang)助用户處(chu)理(li)各(ge)類(lei)任(ren)務(wu),方(fang)法(fa)則(ze)是借(jie)助自然(ran)语言理解的能力(li)和视觉內(nei)容(rong)分析(xi)的能力。

LLaVA的主(zhu)要(yao)功能包括:

· 以文本(ben)为基(ji)礎(chu)的任务:LLaVA可以处理並(bing)分析文本,允(yun)許(xu)用户问问题,LLaVA可以和用户交(jiao)談(tan),或(huo)者完(wan)成用户输入的任务,比如说提(ti)煉(lian)文件(jian)概(gai)要,情(qing)感(gan)分析,实體(ti)識(shi)別(bie)等等。

· 以圖(tu)像(xiang)为基础的任务:LLaVA可以分析图像,描(miao)述(shu)图像,进行(xing)物(wu)体识别,分析理解場(chang)景(jing)。

用户如果想(xiang)更(geng)好(hao)地(di)應(ying)用LLaVA,可以直接(jie)和LLaVA进行交谈,就像和人类之(zhi)間(jian)對(dui)話(hua)一樣(yang)。盡(jin)可能多的提供(gong)細(xi)節(jie),LLaVA就会生成出一个更完善(shan)的答案(an)。

同时应该記(ji)住(zhu),说到(dao)底(di)LLaVA是一个機(ji)器(qi)学習(xi)模型,是一个AI工(gong)具(ju)。只(zhi)要是工具,就有其(qi)限(xian)制(zhi)。LLaVA不一定(ding)每(mei)一次(ci)都(dou)能完美(mei)地回答用户输入的问题。

當(dang)然,LLaVA也在不斷(duan)学习和完善,其功能也会越(yue)来越強(qiang)大。

總(zong)的来说,從(cong)LLaVA的回答中(zhong)可以看出,在Chatbot这方面(mian),和GPT的功能差(cha)不了太(tai)多。但(dan)是LLaVA可以处理一些有關(guan)图像的任务。

表現(xian)出彩(cai)

研究人员在Arxiv的论文中詳(xiang)细介(jie)紹(shao)了LLaVA的技(ji)術(shu)细节。

要知(zhi)道使(shi)用机器生成的指令跟(gen)隨(sui)数据对大型语言模型(LLMs)进行指令微调,提高(gao)了新任务的零(ling)點(dian)能力,但这个想法在多模态領(ling)域(yu)的探(tan)索(suo)較(jiao)少(shao)。

在论文中,研究人员首(shou)次嘗(chang)試(shi)使用僅(jin)有语言的GPT-4来生成多模态语言图像的指令跟随数据。

通(tong)過(guo)对这種(zhong)生成的数据进行指令调整(zheng),研究人员引(yin)入了LLaVA:这是一个大型语言和视觉助手,是一个端(duan)到端的训练有素(su)的大型多模态模型,它連(lian)接了一个视觉编码器和LLM,用於(yu)通用的视觉和语言理解。

早(zao)期(qi)实验表明(ming),LLaVA展(zhan)示(shi)了令人印(yin)象(xiang)深(shen)刻(ke)的多模态聊(liao)天(tian)能力,有时在未(wei)見(jian)过的图像/指令上都能输出多模态GPT-4的表现,在合成的多模态指令跟随数据集上與(yu)GPT-4相(xiang)比,獲(huo)得(de)了85.1%的相对分数。

当对Science雜(za)誌(zhi)进行微调时,LLaVA和GPT-4的協(xie)同作用達(da)到了92.53%的新的最先进的準(zhun)確(que)性(xing)。

研究人员公(gong)开了GPT-4生成的视觉指令调整的数据、模型和代码庫(ku)。

多模态模型

首先厘(li)清(qing)定義(yi)。

大型多模态模型指的就是一种基于机器学习技术的模型,能夠(gou)处理和分析多种输入类型,如文本和图像。

这些模型设计用于处理更廣(guang)泛(fan)的任务,并且(qie)能够理解不同形(xing)式(shi)的数据。通过將(jiang)文本和图像作为输入,这些模型可以提高理解和编解釋(shi)的能力,从而(er)生成更准确和相关的回答。

人类通过视觉和语言等多种渠(qu)道与世界(jie)互(hu)動(dong),因(yin)为每个單(dan)獨(du)的渠道在代表和傳(chuan)达某(mou)些世界概念(nian)方面都有独特(te)的優(you)勢(shi),从而有利于更好地理解世界。

而人工智能的核(he)心(xin)願(yuan)望(wang)之一是开发一个通用的助手,能够有效(xiao)地遵(zun)循(xun)多模态的视觉和语言指令,与人类的意(yi)图一致(zhi),完成各种真(zhen)实世界的任务。

因此(ci),开发者社(she)區(qu)见證(zheng)了对开发语言增(zeng)强的基础视觉模型的新興(xing)趣(qu),在开放(fang)世界的视觉理解方面具有强大的能力,如分类、檢(jian)測(ce)、分割(ge)、描述,以及(ji)视觉生成和编辑。

在这些功能中,每个任务都由一个单一的大型视觉模型独立(li)解決(jue),在模型设计中隱(yin)含(han)考(kao)慮(lv)了任务指令。

此外(wai),语言只被用来描述图像内容。雖(sui)然这允许语言在将视觉信(xin)號(hao)映(ying)射(she)到语言语义方面发揮(hui)重(zhong)要作用——这是人类交流(liu)的常(chang)见渠道。但这会导致模型通常具有固(gu)定的界面,互动性和对用户指令的適(shi)应性有限。

而大型语言模型(LLM)表明,语言可以发挥更广泛的作用:通用助手的通用界面,各种任务指令可以明确地用语言表示,并引导端到端训练有素的神(shen)经助手切(qie)換(huan)到感兴趣的任务来解决它。

例(li)如,最近(jin)ChatGPT和GPT-4的成功,证明了这种LLM在遵循人类指令方面的能力,并激(ji)发了人们对开发开源LLM的巨(ju)大兴趣。

LLaMA就是一个开源的LLM,其性能与GPT-3相当。正(zheng)在进行的工作利用各种机器生成的高質(zhi)量(liang)指令跟随样本来提高LLM的对齊(qi)能力,与專(zhuan)有LLM相比,报告(gao)了令人印象深刻的性能。重要的是,这一行的工作是純(chun)文本的。

在本文中,研究人员提出了视觉指令调整,这是将指令调整擴(kuo)展到多模态空(kong)间的首次尝试,它为建(jian)立一个通用的视觉助手鋪(pu)平了道路(lu)。具体来说,论文的主要内容包括:

多模态的指令跟随数据。一个关鍵(jian)的挑(tiao)戰(zhan)是缺(que)乏(fa)视觉语言指令-跟随数据。我们提出了一个数据改(gai)革(ge)的觀(guan)点和管(guan)道,使用ChatGPT/GPT-4将图像-文本对轉(zhuan)换为适当的指令-跟随格(ge)式。

大型多模态模型。研究人员开发了一个大型多模态模型(LMM),通过连接CLIP的开放集视觉编码器和语言解码器LaMA,并在生成的教(jiao)学视觉——语言数据上对它们进行端到端的微调。实证研究验证了使用生成的数据进行LMM指令调諧(xie)的有效性,并为建立一个通用的指令跟随的视觉代理提出了实用的建議(yi)。通过GPT 4,研究小(xiao)組(zu)在Science QA多模态推(tui)理数据集上取(qu)得了最先进的性能。

开源。研究小组向(xiang)公眾(zhong)发开了以下内容:生成的多模态指令数据、用于数据生成和模型训练的代码库、模型检查(zha)点,以及一个视觉聊天演(yan)示。

成果展示

可以看到,LLaVA能处理各类问题,且生成的回答既(ji)全(quan)面又(you)富(fu)有邏(luo)辑。

LLaVA表现出一些接近GPT-4水平的多模态能力,在视觉聊天方面,GPT-4相对評(ping)分85%。

而在推理问答方面,LLaVA甚(shen)至(zhi)达到了新SoTA——92.53%,擊(ji)敗(bai)多模态思(si)維(wei)鏈(lian)。

參(can)考資(zi)料(liao):

https://llava-vl.github.io/返(fan)回搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:山东德州武城县