北京社众广告传媒

北京社众广告传媒:打造优质的广告服务

北京社众广告传媒是一家专业的广告公司,致力于为客户提供全方位的广告服务。我们拥有一支经验丰富的团队,可以为客户提供创意、策划、设计、制作、执行等一系列服务,帮助客户更好地传播品牌。

广告传媒

我们的服务涵盖了各种广告形式,包括电视广告、户外广告、网络广告、平面广告等。我们可以根据客户的需求和预算,为客户量身定制最适合的广告方案,从而达到最佳的广告效果。

市场营销

专业的团队

北京社众广告传媒拥有一支专业的团队,包括广告策划师、文案策划师、广告设计师、制作人员等。我们的团队成员都拥有多年的从业经验,可以为客户提供专业的广告设计和制作服务。

此外,我们对每个项目都进行详细的市场调研和分析,以确保广告效果最大化。我们会根据客户的需求和预算,制定最适合的广告方案,并确保项目在预算和时间上的合理利用。

专业团队

优质的服务

北京社众广告传媒一直以来都注重客户体验,我们致力于为客户提供优质的服务。我们会尽最大的努力,确保每个项目都能够按时交付,同时我们也非常注重沟通与反馈,确保客户对广告效果的满意度。

我们的服务还包括售后服务,我们会定期跟进广告效果,为客户提供相关的数据分析和建议。我们的目标是为客户创造更高的品牌价值。

优质服务

结论

北京社众广告传媒是一家专业的广告公司,我们致力于为客户提供最优质的广告服务。我们拥有专业的团队,可以为客户提供创意、策划、设计、制作、执行等全方位的服务。我们注重客户体验,提供售后服务,确保客户对广告效果的满意度。如果您需要任何广告服务,请咨询我们的客服,我们将竭诚为您服务。

北京社众广告传媒随机日志

直播课堂、高端套餐、点播微课、在线题库、精品图书、权威资讯,六类资源,随时随地,开始学习!课程、题库、图书、资讯,线上线下,学练结合,考试资讯实时推送,让你的学习有备无患,顺利通关!

1、【诗歌诵读】经典诗歌模仿诵读,提升语感

2、为什么一些期刊之前没有显示影响因子,今天突然显示了?

3、百宝箱新增会议合集一键打包下载功能

4、Fixedhieroglyphnumbering

5、精彩直播节目能随意观看,不会收取用户的任何费用,各类主播动态内容会直接在主页展示,用户可自主观看。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>大(da)模(mo)型(xing)如(ru)何(he)可(ke)靠(kao)?IBM等(deng)學(xue)者(zhe)最(zui)新(xin)《基(ji)礎(chu)模型的(de)基础魯(lu)棒(bang)性(xing)》教(jiao)程(cheng)|NeurIPS 2022

新智(zhi)元(yuan)報(bao)道(dao)

作(zuo)者:專(zhuan)知(zhi)

編(bian)輯(ji):Aeneas

【新智元導(dao)讀(du)】在(zai)第(di)36屆(jie)NeurIPS上(shang),來(lai)自(zi)IBM研(yan)究(jiu)中(zhong)心(xin)等学者講(jiang)述(shu)關(guan)於(yu)大模型的鲁棒性,非(fei)常(chang)值(zhi)得(de)关註(zhu)!

作為(wei)當(dang)前(qian)全(quan)球(qiu)最負(fu)盛(sheng)名(ming)的 AI 学術(shu)會(hui)議(yi)之(zhi)壹(yi),NeurIPS 是(shi)每(mei)年(nian)学界(jie)的重(zhong)要(yao)事(shi)件(jian),全稱(cheng)是 Neural Information Processing Systems,神(shen)經(jing)信(xin)息(xi)處(chu)理(li)系(xi)統(tong)大会,通(tong)常在每年 12 月(yue)由(you) NeurIPS 基金(jin)会主(zhu)辦(ban)。

大会討(tao)論(lun)的內(nei)容(rong)包(bao)含(han)深(shen)度(du)学習(xi)、計(ji)算(suan)機(ji)視(shi)覺(jiao)、大規(gui)模机器(qi)学习、学习理论、優(you)化(hua)、稀(xi)疏(shu)理论等眾(zhong)多(duo)細(xi)分(fen)領(ling)域(yu)。

今(jin)年 NeurIPS 已(yi)是第 36 届,于 11 月 28 日(ri)至(zhi) 12 月 9 日舉(ju)行(xing),为期(qi)兩(liang)周(zhou)。

第一周將(jiang)在美(mei)國(guo)新奧(ao)爾(er)良(liang) Ernest N. Morial 会议中心举行現(xian)場(chang)会议,第二(er)周改(gai)为線(xian)上会议。

来自IBM研究中心等学者讲述关于大模型的鲁棒性,非常值得关注!

基础模型采(cai)用(yong)深度学习的方(fang)法(fa),在大规模無(wu)標(biao)簽(qian)數(shu)據(ju)上進(jin)行預(yu)訓(xun)練(lian),並(bing)通過(guo)特(te)定(ding)任(ren)務(wu)的監(jian)督(du)进行微(wei)調(tiao),正(zheng)成(cheng)为机器学习的主流(liu)技(ji)术。

雖(sui)然(ran)基础模型在学习一般(ban)表(biao)示(shi)和(he)跨(kua)领域和数据模式(shi)的少(shao)次(ci)/零(ling)次泛(fan)化方面(mian)有(you)很(hen)多希(xi)望(wang),但(dan)同(tong)時(shi)由于使(shi)用了(le)过多的数据量(liang)和復(fu)雜(za)的神经網(wang)絡(luo)架(jia)構(gou),它(ta)們(men)在鲁棒性和隱(yin)私(si)性方面提(ti)出(chu)了前所(suo)未(wei)有的挑(tiao)戰(zhan)和相(xiang)当大的風(feng)險(xian)。

本(ben)教程旨(zhi)在提供(gong)一個(ge)類(lei)似(si)coursera的在线教程,包含全面的讲座(zuo),一个實(shi)踐(jian)和交(jiao)互(hu)式的Jupyter/Colab实时编碼(ma)演(yan)示,以(yi)及(ji)一个关于基础模型中可信性的不(bu)同方面的小(xiao)組(zu)讨论。

https://sites.google.com/view/neurips2022-frfm-turotial

目(mu)錄(lu)内容:

Basics in foundation models and robustness

Deep dive on foundation models for computer vision

Deep dive on foundation models for code

Hands-on code walkthrough

Concluding Remarks

Q&A

Panel discussion

讲者:

现实世(shi)界的机器学习系统需(xu)要對(dui)分布(bu)變(bian)化鲁棒——它们應(ying)当在與(yu)训练分布不同的測(ce)試(shi)分布上工(gong)作良好(hao)。

諸(zhu)如資(zi)源(yuan)不足(zu)国家(jia)的貧(pin)困(kun)地(di)圖(tu) [Xie et al. 2016; Jean et al. 2016]、自動(dong)駕(jia)駛(shi)汽(qi)車(che) [Yu et al. 2020a; Sun et al. 2020a]、醫(yi)学診(zhen)斷(duan) [AlBadawy et al. 2018; Dai and Gool 2018] 這(zhe)樣(yang)的高(gao)风险应用都(dou)需要模型良好的泛化到(dao)训练数据中沒(mei)有見(jian)过的環(huan)境(jing)中,例(li)如,测试样例来自不同的国家,处于不同的驾驶條(tiao)件,或(huo)来自不同的医院(yuan)。

先(xian)前的工作已经表明(ming):即(ji)使是对目前最先进的模型,这些(xie)分布变化也(ye)会导致(zhi)性能(neng)的大幅(fu)下(xia)降(jiang) [Blitzer et al. 2006; Daumé III 2007;Sugiyama et al. 2007; Ganin and Lempitsky 2015; Peng et al. 2019; Kumar et al. 2020a; Arjovskyet al. 2019; Szegedy et al. 2014; Hendrycks and Dietterich 2019; Sagawa et al. 2020a; Recht et al.2019; Abney 2007; Ruder and Plank 2018; Geirhos et al. 2018; Kumar et al. 2020b; Yu et al. 2020b;Geirhos et al. 2020; Xie et al. 2021a; Koh et al. 2021]。

一个基础模型在采样自分布

的大量不同的无标签数据集(ji)上进行训练,然後(hou)可以被(bei)適(shi)配(pei)到許(xu)多的下遊(you)任务中。

对于每一个下游任务

,基础模型在帶(dai)标签的從(cong)训练分布

中采样的分布内(in-distribution, ID)训练数据上进行训练,然后在分布外(wai)(out-of-distribution, OOD)的测试分布

上进行評(ping)價(jia)。

例如,一个贫困地图预测模型 [Xie et al. 2016; Jean et al. 2016] 可以在全世界的无标签衛(wei)星(xing)数据中学习所有国家的有用特征(zheng),然后在带标签的来自尼(ni)日利(li)亞(ya)的样例上进行微调,最終(zhong)在缺(que)乏(fa)带标签样例的馬(ma)拉(la)維(wei)上进行评价。

我(wo)们認(ren)为:1)基础模型在鲁棒性方面是一个特別(bie)具(ju)有前途(tu)的方法。现有工作表明了在无标签数据上进行预训练是一種(zhong)有效(xiao)的、通用的提高在 OOD 测试分布上準(zhun)確(que)性的方法,这与限(xian)制(zhi)于有限的分布变化的许多鲁棒性幹(gan)预措(cuo)施(shi)相反(fan)。

然而(er),我们同样讨论了 2)为什(shen)麽(me)基础模型可能无法總(zong)是应对分布变化,例如某(mou)些由于偽(wei)相关性或隨(sui)时間(jian)改变的分布变化。

最后,3)我们概(gai)述了幾(ji)个利用和提高基础模型鲁棒性的研究方向(xiang)。

我们注意(yi)到,基础模型提高下游任务性能的一个方法是为适配模型提供歸(gui)納(na)偏(pian)置(zhi)(通过模型初(chu)始(shi)化),这些偏置是在下游训练数据之外的多种数据集上学习得到的。

然而,同样的归纳偏置也可能从预训练数据中编码有害(hai)关聯(lian),并在分布变化的情(qing)況(kuang)下导致表示和分配危(wei)害。

參(can)考(kao)资料(liao):

https://mp.weixin.qq.com/s/yuHeCvmSCDNRUbJX1iLhRA

https://arxiv.org/abs/2108.07258返(fan)回(hui)搜(sou)狐(hu),查(zha)看(kan)更(geng)多

責(ze)任编辑:

发布于:云南文山西畴县