中国亲情广告案例

中国亲情广告案例:感人至深的父母爱

近年来,随着社会的变迁和家庭结构的多样化,亲情关系变得越来越复杂。然而,在这个世界上,没有哪种爱比父母的爱更为伟大而崇高。在中国,亲情广告成为了一种新兴的营销手段,成功地触动着越来越多人的心弦。下面,我们就来探讨一下中国亲情广告的魅力所在。

中国亲情广告案例

在中国,亲情广告的主题多样,有的是以家庭为背景,有的则是以孝心为主题。无论是哪种类型的广告,都能够打动人心,让人们感受到亲情的温暖与心灵的震撼。

其中一则广告以一位老人为主角,讲述了他为了孩子的未来而不惜牺牲自己的故事。在广告中,老人默默地工作,节衣缩食,为孩子攒了一笔钱。在孩子考上大学后,老人终于可以安心离开人世。这则广告虽然简单,却传递出了一个强烈的信息:父母的爱是无私的,值得我们永远铭记。

中国亲情广告案例

另一则广告则讲述了一对年迈的夫妻,在已逝的儿子生日那天,拿出了一盒装满了儿子生前的物品的盒子。他们轻轻地抚摸着儿子的照片,默默地流泪。然而,他们并没有因此而沉沦。相反,他们选择了捐赠儿子的器官,让他在逝去后仍然能够救助他人。这则广告不仅表达了父母对儿子的爱,也表达了他们对生命的敬畏和价值的尊重。

中国亲情广告的成功之处

中国亲情广告之所以能够产生如此强烈的共鸣,是因为它们深刻地触及了人们内心最柔软的地方。通过亲情广告,品牌不仅能够让消费者感受到其人性化的一面,也能够加深与消费者之间的情感联系,提高品牌忠诚度和声誉度。

此外,中国亲情广告还能够与社会热点紧密结合,让人们在感受到爱的力量的同时,也能够更好地理解社会的变迁和家庭的重要性。这种深度的思考和人性化的营销手法,使得亲情广告在中国市场上越来越受欢迎。

结论

在这个充满着功利和冷漠的社会中,亲情广告的出现无疑是一股清流。通过真挚而感人的故事,亲情广告让我们重新认识了父母的爱和家庭的意义。同时,它也成为了品牌传播的一种新的手段,帮助企业树立了人性化的形象。相信在未来的日子里,中国亲情广告还将继续创造出更多的惊喜和感动。

中国亲情广告案例

中国亲情广告案例特色

1、操作简单,只靠点和拖就可以轻松畅玩。

2、在竞技上对于玩家在操作的手法上具有一定的要求,能够给你以巨大的打击感。

3、游戏中各处都充满了幻想的色彩。

4、试题和学习资料都很齐全,随时可以开启学习模式。

5、玩法上的创新让你感受另类卡牌对战的魅力所在,还有新的挑战在副本中等你开启;

中国亲情广告案例亮点

1、有追求高品质注重原创设计高档精致惊艳少数民族的特色乡村品牌

2、画面唯美精致游戏界面菜单一目了然。其次场景设计十分逼真:建筑地面植物层次不齐,错落有致。

3、简单易用:涵盖服装业务必备功能,易学易用;远离纸质的商品采购发货的原始时间。

4、呈现给玩家的挑战内容非常的丰富,等着玩家的体验。

5、强大的社交系统,邂逅倾城佳人,携手体验双修的乐趣;

caozuojiandan,zhikaodianhetuojiukeyiqingsongchangwan。zaijingjishangduiyuwanjiazaicaozuodeshoufashangjuyouyidingdeyaoqiu,nenggougeiniyijudadedajigan。youxizhonggechudouchongmanlehuanxiangdesecai。shitihexuexiziliaodouhenqiquan,suishikeyikaiqixueximoshi。wanfashangdechuangxinrangniganshoulingleikapaiduizhandemeilisuozai,haiyouxindetiaozhanzaifubenzhongdengnikaiqi;0代(dai)碼(ma)體(ti)驗(yan)效(xiao)果(guo),1行(xing)實(shi)現(xian)推(tui)理(li),10行搞(gao)定(ding)調(tiao)優(you)!101個(ge)CV模(mo)型(xing)集(ji)体開(kai)源(yuan)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

作(zuo)者(zhe):謝(xie)宣(xuan)松(song) 阿(e)裏(li)達(da)摩(mo)院(yuan)开放(fang)視(shi)覺(jiao)智能(neng)負(fu)責(ze)人(ren)

編(bian)輯(ji):好(hao)困(kun)

【新智元導(dao)讀(du)】11 月(yue) 3 日(ri),在(zai) 2022 雲(yun)棲(qi)大(da)會(hui)上(shang),阿里达摩院聯(lian)手(shou) CCF 开源發(fa)展(zhan)委(wei)員(yuan)会共(gong)同(tong)推出(chu)了(le) AI 模型社(she)區(qu)「魔(mo)搭(da)」ModelScope。本(ben)文(wen),阿里达摩院开放视觉智能负责人谢宣松,深(shen)入(ru)解(jie)析(xi)了魔搭社区里首(shou)批(pi)开源的(de) 101 个视觉 AI 模型。

作為(wei)壹(yi)名(ming)视觉 AI 研(yan)究(jiu)者,我(wo)認(ren)为视觉 AI 的潛(qian)能遠(yuan)未(wei)得(de)到(dao)充(chong)分(fen)发揮(hui),窮(qiong)盡(jin)我們(men)這(zhe)些(xie)研究者的力(li)量(liang),也(ye)只(zhi)能覆(fu)蓋(gai)少(shao)數(shu)行業(ye)和(he)場(chang)景(jing),远未能滿(man)足(zu)全(quan)社会的需(xu)求(qiu)。

因(yin)此(ci),在 AI 模型社区魔搭 ModelScope 上,我们決(jue)定全面(mian)开源达摩院研发的视觉 AI 模型,首批达 101 个,其(qi)中(zhong)多(duo)数为 SOTA 或(huo)經(jing)過(guo)实踐(jian)檢(jian)验。我们希(xi)望(wang)讓(rang)更(geng)多开发者來(lai)使(shi)用(yong)视觉 AI,更期(qi)待(dai) AI 能成(cheng)为人類(lei)社会前(qian)進(jin)的動(dong)力之(zhi)一。

魔搭社区地(di)址(zhi):modelscope.cn

背(bei)景

AI 模型較(jiao)为復(fu)雜(za),尤(you)其是(shi)要(yao)應(ying)用於(yu)行业场景,往(wang)往需要重(zhong)新訓(xun)練(lian),这使得 AI 只掌(zhang)握(wo)在少数算(suan)法(fa)人员手中,難(nan)以(yi)走(zou)向(xiang)大眾(zhong)化(hua)。

而(er)新推出的魔搭社区 ModelScope,践行模型即(ji)服(fu)務(wu)的新理念(nian)(Model as a Service),提(ti)供(gong)众多預(yu)训练基(ji)礎(chu)模型,只需針(zhen)對(dui)具(ju)体场景再(zai)稍(shao)作调优,就(jiu)能快(kuai)速(su)投(tou)入使用。

达摩院率(lv)先(xian)向魔搭社区貢(gong)獻(xian) 300 多个经过验證(zheng)的优質(zhi) AI 模型,超(chao)过 1/3 为中文模型,全面开源开放,並(bing)且(qie)把(ba)模型變(bian)为直(zhi)接(jie)可(ke)用的服务。

社区首批开源模型包(bao)括(kuo)视觉、語(yu)音(yin)、自(zi)然(ran)语言(yan)處(chu)理、多模態(tai)等(deng) AI 主(zhu)要方(fang)向,并向 AI for Science 等新領(ling)域(yu)積(ji)極(ji)探(tan)索(suo),覆盖的主流(liu)任(ren)务超过 60 个。

模型均(jun)经过專(zhuan)家(jia)篩(shai)選(xuan)和效果验证,包括 150 多个 SOTA(业界(jie)领先)模型和 10 多个大模型,全面开源且开放使用。

概(gai)要:以人为中心(xin)的视觉 AI

这些年(nian)来,达摩院作为阿里巴(ba)巴的基础科(ke)研機(ji)構(gou)和人才(cai)高(gao)地,在阿里海(hai)量业务场景中研发出一批优秀(xiu)的视觉 AI 能力,分布(bu)在各(ge)个環(huan)節(jie):

这些视觉 AI 技(ji)術(shu),幾(ji)乎(hu)覆盖了從(cong)理解到生(sheng)成等各方面。因视觉技术任务众多,我们需要有(you)一个相(xiang)对合(he)理的分类方法,可以从模态、对象(xiang)、功(gong)能、场景等几个維(wei)度(du)来分:

魔搭社区首批开放了主要的视觉任务模型,这些模型即有學(xue)术創(chuang)新的 SOTA 技术,也有久(jiu)经考(kao)验的实戰(zhan)模型,从「功能 / 任务」的维度上,涵(han)盖了常(chang)見(jian)的感(gan)知(zhi)、理解、生產(chan)等大类:

雖(sui)然视觉技术有點(dian)龐(pang)杂,但(dan)其实有个核(he)心,那(na)就是研究「对象」,「人」一直以来都(dou)是最(zui)重要的「对象」。「以人为中心」的视觉 AI 技术,也是研究最早(zao)最深、使用最普(pu)遍(bian)的技术。

我们以一个人的照(zhao)片(pian)作为起(qi)点。

然後(hou),我们還(hai)需要进一步(bu)探索:照片质量如(ru)何(he),能否(fou)畫(hua)质变得更好,其中的人能否变得更漂(piao)亮(liang),甚(shen)至(zhi)变成卡(ka)通(tong)人、数字(zi)人等...

如上的 7 个「人」相關(guan)的流程(cheng),基本涵盖了视觉任务中的「理解」、「增(zeng)強(qiang)」、「编辑」等大类,我们以魔搭社区已(yi)开放的相关模型为实例(li),来分享(xiang)以人为中心的视觉技术的特(te)点、优点、示(shi)例以及(ji)应用。

感知理解类模型

1. 从照片摳(kou)出人像(xiang)

模型名:BSHM 人像抠圖(tu)

体验鏈(lian)接:https://www.modelscope.cn/models/damo/cv_unet_image-matting/

从照片抠出人像,去(qu)掉(diao)背景,是一个非(fei)常普遍的需求,也是「PS」的基本操(cao)作之一,但傳(chuan)統(tong)人工(gong)操作費(fei)時(shi)费力、且效果不(bu)佳(jia)。

魔搭提供的人像抠图模型,是一个 全自动、端(duan)到端的人像抠图模型,能夠(gou)实现发絲(si)級(ji)別(bie)的精(jing)細(xi)分割(ge)。

技术上我们也进行了创新,不同于其他(ta)模型基于大量精细標(biao)註(zhu)数據(ju)训练的方法,我们的模型使用粗(cu)标注数据就能实现精细抠图,对数据要求低(di)、精度高。

具体来說(shuo),模型框(kuang)架(jia)分为三(san)部(bu)分:粗 mask 估(gu)計(ji)網(wang)絡(luo)(MPN)、质量统一化网络(QUN)、以及精確(que) alpha matte 估计网络(MRN)。

我们首先將(jiang)复杂問(wen)題(ti)拆(chai)解,先粗分割(MPN)再精细化分割(MRN)。

学术界有大量易(yi)獲(huo)取(qu)的粗分割数据,但是粗分割数据和精分割数据不一致(zhi)导致预期 GAP 很(hen)大,故(gu)而我们又(you)設(she)计了质量统一化网络(QUN)。

MPN 的用途(tu)是估计粗语義(yi)信(xin)息(xi)(粗 mask),使用粗标注数据和精标注数据一起训练。

QUN 是质量统一化网络,用以規(gui)範(fan)粗 mask 质量,QUN 可以统一 MPN 輸(shu)出的粗 mask 质量。

MRN 网络输入原(yuan)图和经过 QUN 规范化后的粗 mask,估计精确的 alpha matte,使用精确标注数据训练。

當(dang)然,抠图分割相关的需求非常多樣(yang)化,我们也上線(xian)了一系(xi)列(lie)模型,支(zhi)持(chi)非人像抠图以及视頻(pin)抠图等。

开发者可以直接拿(na)来即用,如进行輔(fu)助(zhu)设计師(shi)抠图,一鍵(jian)抠图,大幅(fu)提升(sheng)设计效率,或者自由(you)換(huan)背景,可实现会議(yi)虛(xu)擬(ni)背景、证件(jian)照、穿(chuan)越(yue)等效果。这些也在阿里自有产品(pin)(如釘(ding)钉视频会议)及云上客(ke)戶(hu)廣(guang)泛(fan)使用。

模型名:MogFace 人臉(lian)检測(ce)

体验链接:https://www.modelscope.cn/models/damo/cv_resnet101_face-detection_cvpr22papermogface/

我们自研的 MogFace 为当前 SOTA 的人脸检测方法,已在 Wider Face 六(liu)項(xiang)榜(bang)單(dan)上霸(ba)榜一年半(ban)以上,具体技术論(lun)文发表(biao)于 CVPR2022,主要贡献是从 label assignment, scale-level data augmentation and reduce false alarms 三个角(jiao)度改(gai)进人脸检测器(qi)。

技术上的特点有:

Scale-level Data Augmentation (SSE):SSE 是第(di)一个从 maximize pyramid layer 表征(zheng)的角度来控(kong)制(zhi)数据集中 gt 的尺(chi)度分布,而不是 intuitive 的假(jia)想(xiang)检测器的学習(xi)能力,因此在不同场景下(xia)都很魯(lu)棒(bang); Adaptive Online Anchor Mining Strategy(Ali-AMS):減(jian)少对超參(can)的依(yi)賴(lai), 簡(jian)单且有效的 adpative label assign 方法; Hierarchical Context-aware Module (HCAM):减少誤(wu)检是真(zhen)实世(shi)界人脸检测器面对的最大挑(tiao)战,HCAM 是最近(jin)几年第一次(ci)在算法側(ce)給(gei)出 solid solution。

人脸检测作为人脸相关的基础能力,可应用于人脸相冊(ce) / 人脸编辑 / 人脸比(bi)对等场景。

由于人脸相关的模型使用非常广泛,我们也有系列模型的叠(die)代计劃(hua),包括 MogFace 中所(suo)介(jie)紹(shao)的技术点除(chu)了 HCAM 均無(wu)需引(yin)入額(e)外(wai)的计算量,后續(xu)準(zhun)備(bei)打(da)造(zao) SOTA 的 family-based 人脸检测模型;以及真实世界的人脸检测器除了面对减少误检的问题,还面对如何增加(jia)人脸检出率的问题,以及他们之間(jian)如何平(ping)衡(heng)的问题,我们正(zheng)在进一步探索。

模型名字:HRNet 人体关键点 -2D

体验链接:https://www.modelscope.cn/models/damo/cv_hrnetv2w32_body-2d-keypoints_image/

該(gai)任务采(cai)用自頂(ding)向下的人体关键点检测框架,通过端对端的快速推理可以得到图像中的 15 点人体关键点。

其中人体关键点模型基于 HRNet 改进的 backbone,充分利(li)用多分辨(bian)率的特征较好地支持日常人体姿(zi)态,在 COCO 数据集的 AP 和 AR50 上取得更高精度。

同时我们也针对体育(yu)健(jian)身(shen)场景做(zuo)了优化,尤其是在瑜(yu)伽(jia)、健身等场景下多遮(zhe)擋(dang)、非常见、多臥(wo)姿等姿态上具有 SOTA 的检测精度。

为了更好的適(shi)用于各種(zhong)场景,我们持续进行优化:

针对通用场景的大模型在指(zhi)标上达到 SOTA 性(xing)能; 针对移(yi)动端部署(shu)的小(xiao)模型,內(nei)存(cun)占(zhan)用小,運(yun)行快、性能穩(wen)定,在千(qian)元机上达到 25~30FPS; 针对瑜伽、跳(tiao)繩(sheng)技术、仰(yang)卧起坐(zuo)、俯(fu)卧撐(cheng)、高擡(tai)腿(tui)等体育健身计数和打分场景下多遮挡、非常见、多卧姿姿态等情(qing)況(kuang)做了深度优化,提升算法精度和准确度。

本模型已经广泛应用于 AI 体育健身、体育测試(shi)场景,如阿里体育樂(le)动力,钉钉运动,健身鏡(jing)等,也可应用于 3D 关键点检测和 3D 人体重建(jian)等场景。

4. 小結(jie)

魔搭社区上面开放了豐(feng)富(fu)的感知理解类模型,供 AI 开发者试用使用:

5. 彩(cai)蛋(dan):DAMO-YOLO 首次放出

模型名字:DAMOYOLO- 高性能通用检测模型 -S

体验链接:https://www.modelscope.cn/models/damo/cv_tinynas_object-detection_damoyolo/summary

通用目(mu)标检测是计算机视觉的基本问题之一,具有非常广泛的应用。

DAMO-YOLO 是阿里新推出来的 目标检测框架,兼(jian)顧(gu)模型速度與(yu)精度,其效果超越了目前的一众 YOLO 系列方法,且推理速度更快。

DAMO-YOLO 还提供高效的训练策(ce)略(lve)和便(bian)捷(jie)易用的部署工具,能幫(bang)助开发者快速解决工业落(luo)地中的实際(ji)问题。

DAMO-YOLO 引入 TinyNAS 技术,使得用户可以根(gen)据硬(ying)件算力进行低成本的检测模型定制,提高硬件利用效率并且获得更高精度。

另(ling)外,DAMO-YOLO 还对检测模型中的 neck、head 结构设计,以及训练时的标簽(qian)分配(pei)、数据增广等关键因素(su)进行了优化。

由于做了一系列优化,DAMO-YOLO 在嚴(yan)格(ge)限(xian)制 Latency 的情况下精度取得了顯(xian)著(zhu)的提升,成为 YOLO 框架中的新 SOTA。

底(di)層(ceng)视觉模型

1. 照片去噪(zao)去模糊(hu)

模型名字:NAFNet 图像去噪

体验地址:https://www.modelscope.cn/models/damo/cv_nafnet_image-denoise_sidd/

因拍(pai)攝(she)环境(jing)、设备、操作等原因,图像质量不佳的情况时而存在,怎(zen)麽(me)对这些图像的噪聲(sheng)去除、模糊还原?

该模型在图像恢(hui)复领域具有良(liang)好的泛化性,无论是图像去噪还是图像去模糊任务,都达到了目前的 SOTA。

由于技术创新,该模型使用了简单的乘(cheng)法操作替(ti)换了激(ji)活(huo)函(han)数,在不影(ying)響(xiang)性能的情况下提升了处理速度。

该模型全名叫(jiao) NAFNet 去噪模型,即非线性无激活网络(Nonlinear Activation Free Network),证明(ming)了常见的非线性激活函数(Sigmoid、ReLU、GELU、Softmax 等)不是必(bi)須(xu)的,它(ta)们是可以被(bei)移除或者是被乘法算法代替的。该模型是对 CNN 结构设计的重要创新。

本模型可以做为很多应用的前置(zhi)步驟(zhou),如智能手机图像去噪、图像去运动模糊等。

2. 照片修(xiu)复及增强

模型名字:GPEN 人像增强模型

体验地址:https://www.modelscope.cn/models/damo/cv_gpen_image-portrait-enhancement/

除照片去噪以外,对照片的质量(包括分辨、细节紋(wen)理、色(se)彩等)会有更高的处理要求,我们也开放了专門(men)的人像增强模型,对输入图像中的每(mei)一个检测到的人像做修复和增强,并对图像中的非人像区域采用 RealESRNet 做兩(liang)倍(bei)的超分辨率,最終(zhong)返(fan)回(hui)修复后的完(wan)整(zheng)图像。该模型能够鲁棒地处理絕(jue)大多数复杂的真实降(jiang)质,修复严重損(sun)傷(shang)的人像。

从效果上看(kan),GPEN 人像增强模型将预训练好的 StyleGAN2 网络作为 decoder 嵌(qian)入到完整模型中,并通过 finetune 的方式(shi)最终实现修复功能,在多项指标上达到行业领先的效果。

从应用的视角,本模型可以修复家庭(ting)老(lao)照片或者明星(xing)的老照片,修复手机夜(ye)景拍摄的低质照片,修复老视频中的人像等。

后续我们将增加 1024、2048 等支持处理大分辨人脸的预训练模型,并在模型效果上持续更新迭代。

3. 小结

底层视觉,关注的是画质问题。只要是生物(wu)(含(han)人),都会对因光(guang)影而产生的细节、形(xing)狀(zhuang)、顏(yan)色、流暢(chang)性等有感应,人对高画质的追(zhui)求更是天(tian)然的,但由于各种现实條(tiao)件,画质往往不理想,这时候(hou)视觉 AI 就能派(pai)上用场。

从任务分类上,可以分为:清(qing)晰(xi)度(分辨率 / 细节、噪声 / 划痕(hen)、幀(zhen)率)、色彩(亮度、色偏(pian)等)、修瑕(xia)(膚(fu)质优化、去水(shui)印(yin)字幕(mu))等,如下表:

编辑生成类模型

1. 变得更漂亮

模型名字:ABPN 人像美(mei)肤

体验链接:https://www.modelscope.cn/models/damo/cv_unet_skin-retouching/

人们对照片人像的美觀(guan)度是一个剛(gang)性需求,包括斑(ban)点、颜色、瑕疵(ci)等,甚至高矮(ai)胖(pang)瘦(shou)。本次我们开放了专业级别的人像美肤、液(ye)化等模型供大家使用。

本模型提出了一个新穎(ying)的自适应混(hun)合模塊(kuai) ABM,其利用自适应混合图层实现了图像的局(ju)部精准修飾(shi)。此外,我们在 ABM 的基础上进一步构建了一个混合图层金(jin)字塔(ta),实现了超高清图像的快速修饰。

相比于现有的图像修饰方法,ABPN 在修饰精度、速度上均有较大提升。ABPN 人像美肤模型为 ABPN 模型在人像美肤任务中的具体应用。

如下示例:

更进一步,我们还可以在服饰上做一些有意(yi)思(si)的嘗(chang)试,如去皺(zhou):

甚至瘦身美型:

体验链接:https://www.modelscope.cn/models/damo/cv_flow-based-body-reshaping_damo/summary

从效果上来说,有如下几点特色:

局部修饰。只对目标区域进行编辑,保(bao)持非目标区域不动。 精准修饰。充分考慮(lv)目标本身的纹理特征和全局上下文信息,以实现精准修饰,去除瑕疵的同时保留(liu)皮(pi)肤本身的质感。 超高分辨率的处理能力。模型的混合图层金字塔设计,使其可以处理超高分辨率图像(4K~6K)。

本模型有很强的实用性,比如可应用于专业修图领域,如影樓(lou)、广告(gao)等,提高生产力,也可以应用于直播(bo)互(hu)娛(yu)场景,提升人像皮肤质感。

2. 变成卡通人

模型名:DCT-Net 人像卡通化模型

体验链接:https://www.modelscope.cn/models/damo/cv_unet_person-image-cartoon_compound-models/

人像卡通化是一个具有很好互动性的玩(wan)法,同时又有多种風(feng)格可选。魔搭开放的人像卡通化模型基于全新的域校(xiao)准图像翻(fan)譯(yi)网络 DCT-Net(Domain-Calibrated Translation)实现,采用了「先全局特征校准,再局部纹理轉(zhuan)换」的核心思想,利用百(bai)張(zhang)小样本风格数据,即可训练得到輕(qing)量稳定的风格转换器,实现高保真、强鲁棒、易拓(tuo)展的高质量人像风格转换效果。

如下示例:

从效果上来看:

DCT-Net 具备内容(rong)匹(pi)配的高保真能力,能有效保留原图内容中的人物 ID、配饰、身体部件、背景等细节特征; DCT-Net 具备面向复杂场景的强鲁棒能力,能轻松处理面部遮挡、稀(xi)有姿态等; DCT-Net 在处理维度上和风格适配度上具有易拓展性,利用頭(tou)部数据即可拓展至全身像 / 全图的精细化风格转换,同时模型具有通用普适性,适配于日漫(man)风、3D、手繪(hui)等多种风格转换。

后续我们也会对卡通化进行系列化的开放,除图像转换外,后续将包含图像、视频、3D 卡通化等系列效果,先放一些效果大家看看:

3. 小结

这类模型对图像内容进行修改,包括对源图内容进行编辑加工(增加内容、刪(shan)除内容、改换内容等),或者直接生成一个新的视觉内容,转换一个风格,得到一张新的图像(基于源图像且与源图不同),都屬(shu)于编辑生成这个大类,可以理解成,从 A 图得到 B 图的过程。

行业场景类模型

如最开始(shi)所说,视觉 AI 技术的價(jia)值(zhi)体现,在广泛的各类场景中都存在,除了上述(shu)「人」相关的视觉 AI 技术,我们也开放了来自互联网、工业、互娱、传媒(mei)、安(an)全、醫(yi)療(liao)等多个实战型的模型,这些模型可以拿来即用,也可以基于finetune训练或自学习工具进一步加工完善(shan),用于开发者、客户特定的场景,这里舉(ju)一个例子(zi):

模型名:煙(yan)火(huo)检测(正在集成中)

模型功能: 可做室(shi)外、室内的火焰(yan)检测以及烟霧(wu)检测,森(sen)林(lin)、城(cheng)市(shi)道路(lu)、園(yuan)区,卧室、辦(ban)公(gong)区域、廚(chu)房(fang)、吸(xi)烟场所等,算法打磨(mo)近 2 年,并在多个客户场景实际应用,整体效果相对稳定。

从应用上来说,模型可应用于室内、室外多种场景,只需要手机拍摄、監(jian)控摄像头等简单设备就可以实现模型功能。

结语:视觉 AI 的开放未来

通过上述分析,我们可以发现,视觉 AI 的应用潜能极为广泛,社会需求极为多样,但现实情况卻(que)是:视觉 AI 的供给能力非常有限。

达摩院在魔搭 ModelScope 之前,就率先开放了 API 形态的视觉 AI 服务,通过公共云平臺(tai)对 AI 开发者提供一站(zhan)式视觉在线服务平台,即视觉智能开放平台(vision.aliyun.com),其中开放了超 200 个 API,涵盖了基础视觉、行业视觉等方面,也包括上面所说的「以人为中心」的视觉技术。

从开放视觉平台到魔搭社区,这意味(wei)著(zhe)达摩院视觉 AI 的开放邁(mai)出了更大的一步。从 OpenAPI 拓展到 OpenSDK、OpenSOTA,从公共云到端云協(xie)同,从平台到社区,我们希望去满足千行百业对视觉 AI 的需求,希望促(cu)进视觉 AI 的生态发展。返回搜(sou)狐(hu),查(zha)看更多

责任编辑:

发布于:山东青岛即墨市