广告投入数据:揭示您的广告支出的真相

广告投入数据:揭示您的广告支出的真相

广告投入是任何企业在推广自身所提供的产品或服务时都必须考虑的因素之一。每个企业都必须决定投资多少资金用于广告宣传,但如何确定合适的投资数额却是一个非常关键的问题。本文将通过网络资源与广告投入数据,揭示广告支出的真相,并提供一些值得思考的建议。

一、广告投入的目的

广告投入的目的是为了推广企业的产品或服务,吸引新的客户,并保持现有客户的忠诚度。广告投入可以促进品牌知名度的提升,提高产品或服务的销售量。企业需要考虑一些关键因素,如广告类型、广告媒介、广告投入时间以及广告的目标受众。

二、广告支出的真相

1. 广告支出必须建立在企业的收入、成本和预算之间的平衡上。企业必须了解自身能够承受的广告支出范围,以及明确广告支出所带来的回报。2. 知道广告支出可以带来什么效果是非常重要的。对于企业而言,广告支出仅仅是为了增加销售量是不够的,关键其中还包括提高品牌知名度、产品或服务的差异化以及让顾客记住企业。3. 广告支出不仅仅是一次性的,而是必须持续的。企业需要采用多种广告媒介,如电视、广播、报纸、网络等广告类型。投资并维护这些广告媒介,需要长期的资金投入。

三、如何确定广告支出

对于每一个企业而言,确定广告支出的方法都是不同的。但是,以下建议可以作为参考:1. 确定广告支出的预算。企业需要对广告支出进行预算,以确保在自身能够承受范围内进行广告支出。预算可以根据企业的收入和资产状况来进行制定。2. 了解目标用户的群体。企业必须了解自身的目标用户,并选择适当的广告媒介,以获取用户的关注度和品牌忠诚度。3. 制定广告支出的计划。企业需要制定广告支出的计划,以确定在何时以及何地进行广告投放。这样,企业可以根据不同的广告媒介,决定何时投放广告,并提高回报率。

四、总结归纳

广告投入是企业提高品牌知名度、吸引新的客户以及保持现有客户的忠诚度的必要手段。但是,企业必须确保广告支出建立在企业能够承受的范围之内,并且能够带来预期的回报。企业需要制定广告支出的预算,在了解目标用户的情况下,选择适当的广告媒介,并制定广告支出计划,以便更好地提高广告支出的回报率。

问答话题

1. 什么是广告支出的预算?答:广告支出的预算是企业用于广告宣传的资金,预算应该在企业能够承受的范围之内,并能够带来预期的回报。2. 如何确定广告支出的计划?答:企业需要制定广告支出的计划,以确定何时以及何地进行广告投放。这样,企业可以根据不同的广告媒介,决定何时投放广告,并提高回报率。3. 广告支出的回报应该如何衡量?答:广告支出的回报可以通过企业的销售增长、品牌知名度提升以及用户忠诚度的提高等方面来进行衡量。

广告投入数据:揭示您的广告支出的真相特色

1、欢迎使用“豪情屏幕亮度调节器”安装向导

2、网易年度最受期待的手游

3、提供专业客服帮大家找优惠券找返利商品,优质服务只白菜一家。

4、挑战赛设000元奖金池。只要你参加游戏,你就可以分享独家奖金

5、变色宝石可以将任意颜色的宝石转换成其他颜色的道具

广告投入数据:揭示您的广告支出的真相亮点

1、了解当地的文化和各种美食

2、与PC端牧场数据同步,该怎么偷,就怎么偷。

3、经典小说都可以在这里找到。知名作家在线写作,每天都有新的内容可以阅读。

4、精美古风,甜美现代,暖萌日常,畅快阅读

5、收服那些上古的神器后,整个人物都会有一个大的提升,收集的越多,最后的能力越强。

huanyingshiyong“haoqingpingmuliangdutiaojieqi”anzhuangxiangdaowangyinianduzuishouqidaideshouyoutigongzhuanyekefubangdajiazhaoyouhuiquanzhaofanlishangpin,youzhifuwuzhibaicaiyijia。tiaozhansaishe000yuanjiangjinchi。zhiyaonicanjiayouxi,nijiukeyifenxiangdujiajiangjinbiansebaoshikeyijiangrenyiyansedebaoshizhuanhuanchengqitayansededaoju壹(yi)顆(ke)GPU,秒(miao)出(chu)3D模(mo)型(xing)!OpenAI重(zhong)磅(bang)新(xin)作(zuo):Point-E用(yong)文(wen)本(ben)即(ji)可(ke)生(sheng)成(cheng)三(san)維(wei)點(dian)雲(yun)模型

新智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):Joey Aeneas

【新智元導(dao)讀(du)】文本除(chu)了(le)生成圖(tu)像(xiang)、視(shi)頻(pin),還(hai)有(you)3D模型!OpenAI最(zui)新發(fa)布(bu)的(de)POINT-E,輸(shu)入(ru)Prompt一分(fen)鐘(zhong)內(nei)便(bian)可生成3D模型。

席(xi)卷(juan)AI世(shi)界(jie)的下(xia)一個(ge)突(tu)破(po)在(zai)哪(na)裏(li)?

很(hen)多(duo)人(ren)預(yu)測(ce),是(shi)3D模型生成器(qi)。

繼(ji)年(nian)初(chu)推(tui)出的DALL-E 2用天(tian)才(cai)畫(hua)筆(bi)驚(jing)艷(yan)所(suo)有人之(zhi)後(hou),周(zhou)二(er)OpenAI发布了最新的图像生成模型「POINT-E」,它(ta)可通(tong)過(guo)文本直(zhi)接(jie)生成3D模型。

論(lun)文鏈(lian)接:https://arxiv.org/pdf/2212.08751.pdf

相(xiang)比(bi)競(jing)爭(zheng)對(dui)手(shou)們(men)(如(ru)谷(gu)歌(ge)的DreamFusion)需(xu)要(yao)幾(ji)个GPU工(gong)作數(shu)个小(xiao)時(shi),POINT-E只(zhi)需單(dan)个GPU便可在几分钟内生成3D图像。

經(jing)小编實(shi)戰(zhan)测試(shi),Prompt输入后POINT-E基(ji)本可以(yi)秒出3D图像,此(ci)外(wai)输出图像还支(zhi)持(chi)自(zi)定(ding)義(yi)编辑、保(bao)存(cun)等(deng)功(gong)能(neng)。

地(di)址(zhi):https://huggingface.co/spaces/openai/point-e

網(wang)友(you)也(ye)開(kai)始(shi)嘗(chang)试不(bu)同(tong)的prompt输入。

但(dan)输出的結(jie)果(guo)並(bing)不都(dou)令(ling)人滿(man)意(yi)。

还有网友表(biao)示(shi),POINT-E或(huo)許(xu)可以实現(xian)Meta的元宇(yu)宙(zhou)願(yuan)景(jing)?

需要註(zhu)意的是,POINT-E是通过点云(point cloud),也就(jiu)是空(kong)間(jian)中(zhong)点的数據(ju)集(ji)來(lai)生成3D图像。

簡(jian)单来說(shuo),就是通过三维模型進(jin)行(xing)数据采(cai)集獲(huo)取(qu)空间中代(dai)表3D形(xing)狀(zhuang)的点云数据。

從(cong)計(ji)算(suan)的角(jiao)度(du)来看(kan),点云更(geng)容(rong)易(yi)合(he)成,但它们無(wu)法(fa)捕(bu)获对象(xiang)的細(xi)膩(ni)形状或紋(wen)理(li),這(zhe)是目(mu)前(qian)Point-E的一个短(duan)板(ban)。

為(wei)解(jie)決(jue)这个限(xian)制(zhi),Point-E團(tuan)隊(dui)訓(xun)練(lian)了一个額(e)外的人工智能系(xi)統(tong)来將(jiang)Point-E 的点云轉(zhuan)換(huan)为网格(ge)。

将Point-E点云转换为网格

在獨(du)立(li)的网格生成模型之外,Point-E 由(you)兩(liang)个模型組(zu)成:

一个文本图像转化(hua)模型(text-to-image model)和(he)图像转化3D模型(image-to-3D model)。

文本图像转化模型類(lei)似(si)於(yu)OpenAI的DALL-E 2和Stable Diffusion,在標(biao)記(ji)图像上(shang)进行训练以理解单詞(ci)和视覺(jiao)概(gai)念(nian)间的關(guan)聯(lian)。

然(ran)后,将一组與(yu)3D对象配(pei)对图像输入3D转化模型,以便模型學(xue)會(hui)在两者(zhe)之间有效(xiao)转换。

當(dang)输入一个prompt时,文本图像转化模型会生成一个合成渲(xuan)染(ran)对象,該(gai)对象被(bei)饋(kui)送(song)到(dao)图像转化3D模型,然后生成点云。

OpenAI研(yan)究(jiu)人員(yuan)表示,Point-E经歷(li)了数百(bai)萬(wan)3D对象和相关元数据的数据集的训练。

但它并不完(wan)美(mei),Point-E 的图像到 3D 模型有时无法理解文本到图像模型中的图像,导致(zhi)形状与文本提(ti)示不匹(pi)配。盡(jin)管(guan)如此,它仍(reng)然比以前的最先(xian)进技(ji)術(shu)快(kuai)几个数量(liang)級(ji)。

他(ta)们在论文中寫(xie)道:

雖(sui)然我(wo)们的方(fang)法在評(ping)估(gu)中的表现比最先进的技术差(cha),但它只用了一小部(bu)分时间就可以生成樣(yang)本。这可以使(shi)它对某(mou)些(xie)應(ying)用程(cheng)序(xu)更实用,并且(qie)发现更高(gao)質(zhi)量的3D对象。

Point-E架(jia)構(gou)与運(yun)行機(ji)制

Point-E模型首(shou)先使用文本到图像的擴(kuo)散(san)模型生成一个单一的合成视图,然后使用第(di)二个扩散模型生成一个三维点云,该模型以生成的图像为條(tiao)件(jian)。

虽然该方法在采样质量方面(mian)仍未(wei)達(da)到最先进的水(shui)平(ping),但它的采样速(su)度要快一到两个数量级,为一些使用情(qing)況(kuang)提供(gong)了实際(ji)的權(quan)衡(heng)。

下图是该模型的一个high-level的pipeline示意图:

我们不是训练单个生成模型,直接生成以文本为条件的点云,而(er)是将生成过程分为三个步(bu)驟(zhou)。

首先,生成一个以文本标題(ti)为条件的綜(zong)合视图。

接下来,生成?个基于合成视图的粗(cu)略(lve)点云(1,024 个点) 。

最后, 生成了?个以低(di)分辨(bian)率(lv)点云和合成视图为条件的精(jing)细点云(4,096 个点)。

在数百万个3D模型上训练模型后,我们发现数据集的数据格式(shi)和质量差異(yi)很大(da),这促(cu)使我们开发各(ge)種(zhong)后處(chu)理步骤,以確(que)保更高的数据质量。

为了将所有的数据转换为?种通用格式,我们使用Blender从20个隨(sui)机攝(she)像机角度,将每(mei)个3D模型渲染为RGBAD图像(Blender支持多种3D格式,并帶(dai)有優(you)化的渲染引(yin)擎(qing))。

对于每个模型,Blender腳(jiao)本都将模型标準(zhun)化为邊(bian)界立方體(ti),配置(zhi)标准照(zhao)明(ming)設(she)置,最后使用Blender的内置实时渲染引擎,导出RGBAD图像。

然后,使用渲染将每个对象转换为彩(cai)色(se)点云。首先,通过计算每个RGBAD图像中每个像素(su)的点,来为每个对象构建(jian)?个密(mi)集点云。这些点云通常(chang)包(bao)含(han)数十(shi)万个不均(jun)勻(yun)分布的点,因(yin)此我们还使用最遠(yuan)点采样,来創(chuang)建均匀的4K点云。

通过直接从渲染构建点云,我们能夠(gou)避(bi)免(mian)直接从3D网格中采样可能出现的各种問(wen)题,对模型中包含的点进行取样,或处理以不尋(xun)常的文件格式存儲(chu)的三维模型。

最后,我们采用各种啟(qi)发式方法,来減(jian)少(shao)数据集中低质量模型的频率。

首先,我们通过计算每个点云的SVD来消(xiao)除平面对象,只保留(liu)那(na)些最小奇(qi)异值(zhi)高于某个閾(yu)值的对象。

接下来,我们通过CLIP特(te)征(zheng)对数据集进行聚(ju)类(对于每个对象,我们对所有渲染的特征进行平均)。

我们发现,一些集群(qun)包含许多低质量的模型类別(bie),而其(qi)他集群則(ze)顯(xian)得(de)更加(jia)多样化或可解釋(shi)。

我们将这些集群分到几个不同质量的bucket中,并使用所得bucket的加权混(hun)合作为我们的最終(zhong)数据集。

应用前景

OpenAI 研究人员指(zhi)出,Point-E的点云还可用于制造(zao)真(zhen)实世界的物(wu)体,比如3D打(da)印(yin)。

通过额外的网格转换模型,该系统还可以进入遊(you)戲(xi)和動(dong)画开发工作流(liu)程。

虽然目前的目光(guang)都集中在2D藝(yi)术生成器上,但模型合成人工智能可能是下一个重大的行業(ye)顛(dian)覆(fu)者。

3D模型廣(guang)泛(fan)应用于影(ying)视、室(shi)内设计、建築(zhu)和各种科(ke)学領(ling)域(yu)。

当下3D模型的制造耗(hao)时通常需要几个小时,而Point-E的出现恰(qia)恰彌(mi)補(bu)了这一缺(que)点。

研究人员表示现階(jie)段(duan)Point-E还存在许多缺陷(xian),如从训练数据中继承(cheng)的偏(pian)差以及(ji)对于可能用于创建危(wei)險(xian)物体的模型缺乏(fa)保護(hu)措(cuo)施(shi)。

Point-E只是个起(qi)点,他们希(xi)望(wang)它能激(ji)发文本到3D合成领域的「进一步工作」。

參(can)考(kao)資(zi)料(liao):

https://techcrunch.com/2022/12/20/openai-releases-point-e-an-ai-that-generates-3d-models/?tpcc=tcplustwitter

https://www.engadget.com/openai-releases-point-e-dall-e-3d-text-modeling-210007892.html?src=rss返(fan)回(hui)搜(sou)狐(hu),查(zha)看更多

責(ze)任(ren)编辑:

发布于:宁夏吴忠红寺堡区