对决电视剧剧情介绍

对决电视剧剧情介绍

《对决》是一部由中国大陆导演钟澍佳制作的犯罪悬疑剧。该剧讲述了刑侦局局长陈海和赌徒倪大红之间的对决故事。下面我们来看看该剧的剧情介绍。

第一季:陈海的对决

第一季以刑侦局局长陈海为主角,讲述了他在打击犯罪过程中遇到的一系列困难和挑战。陈海面对的犯罪团伙非常狡猾,总是能够逃脱警方的追捕。在一次行动中,陈海抓到了一名赌徒倪大红,倪大红因为赌博欠下了高额的赌债,陈海将这个线索用来追查犯罪团伙。

陈海经过一段时间的搜查,终于发现了犯罪团伙的藏身之处,并且成功抓获了所有成员。同时,陈海也帮助倪大红还清了赌债,让他重新回到了正常的生活轨道上。

第二季:倪大红的对决

第二季以倪大红为主角,讲述了他在面临赌博和犯罪的压力下如何对抗犯罪团伙的故事。倪大红被犯罪团伙逼迫,不得不参与到一次大规模窃取艺术品的行动中,但是他的良心和道德让他感到不安。

倪大红开始思考如何对抗犯罪团伙,他找到了曾经帮助他的陈海,并且和他一起制定了一系列对抗计划。最终,倪大红和陈海成功打败了犯罪团伙,并且将他们绳之以法。

总结归纳

《对决》是一部非常精彩的犯罪悬疑剧,它的剧情扣人心弦,情节紧凑。该剧通过讲述两位主角的故事,向观众展示了犯罪团伙的狡猾和敌人的强大。但是,我们也看到了警方和普通人民的勇敢和坚韧,他们用自己的力量对抗犯罪,维护了社会的公正和正义。

该剧所传达的信息非常积极,是一部值得推荐的电视剧。

对决电视剧剧情介绍特色

1、特殊打造用万年神玉可以打造出怒斩,血饮,龙纹剑等30级高品质武器。

2、城市场景非常的真实,整个细节的刻画非常的逼真,这样射击时乐趣也多。

3、万人同台竞技,感受最直观的竞技体验,一起开黑打怪吗,获得更多的收益。

4、自带强大的广告拦截系统,以后上网浏览网站就不用受到遮挡广告的困扰了

5、章节练习,有效练习银行考试的每一章节考点,同步银行考证的官方教材讲解。

对决电视剧剧情介绍亮点

1、以上就是本站小编今天为大家带来的重型施工机驾驶,想要下载更多APP就来本站吧!

2、这款游戏非常适合放松和休闲。游戏玩法非常简单。玩家控制橡皮人突破跑酷关卡。

3、关卡中的难度是持续增加的,能够让玩家在挑战起来的时候不会感觉到特别的困难。

4、020以内的加减法运算学习都有提供,能够让宝宝掌握数学运算技巧;

5、丰富的游戏关卡等着玩家来挑战,并且每个关卡里面的节奏都非常的快。

teshudazaoyongwannianshenyukeyidazaochunuzhan,xueyin,longwenjiandeng30jigaopinzhiwuqi。chengshichangjingfeichangdezhenshi,zhenggexijiedekehuafeichangdebizhen,zheyangshejishilequyeduo。wanrentongtaijingji,ganshouzuizhiguandejingjitiyan,yiqikaiheidaguaima,huodegengduodeshouyi。zidaiqiangdadeguanggaolanjiexitong,yihoushangwangliulanwangzhanjiubuyongshoudaozhedangguanggaodekunraolezhangjielianxi,youxiaolianxiyinxingkaoshidemeiyizhangjiekaodian,tongbuyinxingkaozhengdeguanfangjiaocaijiangjie。無(wu)需(xu)人(ren)力(li)標(biao)註(zhu)!悉(xi)尼(ni)大(da)學(xue)華(hua)人團(tuan)隊(dui)提(ti)出(chu)「GPT自(zi)監(jian)督(du)标注」範(fan)式(shi),完(wan)美(mei)解(jie)決(jue)标注成(cheng)本(ben)、偏(pian)見(jian)、評(ping)估(gu)問(wen)題(ti)

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):好(hao)困(kun)

【新智元導(dao)讀(du)】最(zui)近(jin),來(lai)自悉尼大学的(de)研(yan)究(jiu)人員(yuan)提出了(le)壹(yi)種(zhong)GPT自监督注釋(shi)方(fang)法(fa),能(neng)夠(gou)將(jiang)數(shu)據(ju)注释為(wei)簡(jian)潔(jie)摘(zhai)要(yao),並(bing)在(zai)各(ge)种注释任(ren)務(wu)中(zhong)展(zhan)現(xian)出卓(zhuo)越(yue)的性(xing)能。

一直(zhi)以(yi)来,数据标注都(dou)在深(shen)度(du)学習(xi)流(liu)程(cheng)中扮(ban)演(yan)了基(ji)礎(chu)且(qie)重(zhong)要的角(jiao)色(se)。

優(you)質(zhi)的数据标注直接(jie)影(ying)響(xiang)到(dao)模(mo)型(xing)的学习效(xiao)果(guo),而(er)這(zhe)无疑(yi)是(shi)實(shi)现高(gao)效深度学习的最原(yuan)始(shi)且關(guan)鍵(jian)的一步(bu)。

與(yu)此(ci)同(tong)時(shi),标注的数据作(zuo)为groundtruth,也(ye)直接影响了後(hou)續(xu)的訓(xun)練(lian),驗(yan)證(zheng),測(ce)試(shi)。

然(ran)而, 業(ye)界(jie)和(he)学界不(bu)得(de)不面(mian)臨(lin)数据标注任务 成本較(jiao)高、存(cun)在偏见、難(nan)以评估,以及(ji)标注难度等(deng)问题。

最近,来自悉尼大学的研究团队提出了一种通(tong)過(guo)大語(yu)言(yan)模型自监督生(sheng)成标注的框(kuang)架(jia)。 首(shou)次(ci)利(li)用(yong) 基於(yu)生成-還(hai)原循(xun)環(huan)标注的GPT自监督方法,解决了上(shang)述(shu)问题。

論(lun)文(wen)鏈(lian)接:https://arxiv.org/pdf/2306.04349.pdf

其(qi)核(he)心(xin)思(si)想(xiang)是,利用大语言模型作为一個(ge)黑(hei)盒(he)优化(hua)优器(qi),構(gou)造(zao)了一个循环:

模版(ban)质量(liang)越高,生成的数据-标注對(dui)质量越高;生成的数据标注对质量越高,用當(dang)前(qian)质量更(geng)高的数据对替(ti)換(huan)上一輪(lun)的模版。以此往(wang)復(fu)叠(die)代(dai),滾(gun)雪(xue)球(qiu)式循环提升(sheng)标注质量。

数据标注困难重重

1. 成本较高:

无论是在哪(na)个國(guo)家(jia)或(huo)公(gong)司(si),数据标注都是一項(xiang)成本高昂(ang)的工(gong)作,需要大量的人力和时間(jian)投(tou)入(ru)。

在美国,数据标注员的平(ping)均(jun)年(nian)薪(xin)約(yue)为39,000美元,最高可(ke)達(da)49,803美元[2]。即(ji)使(shi)在印(yin)度,数据标注员的平均年薪约为2.0 Lakhs盧(lu)比(bi),约合(he)2,670美元[3]。

其次,数据标注的成本也影响了其评估的困难。

例(li)如(ru),由(you)于成本的差(cha)異(yi),許(xu)多(duo)公司選(xuan)擇(ze)将数据标注任务外(wai) 包(bao)到人力成本较低(di)的国家[4]。

然而,这种跨(kua)文化的标注可能导致(zhi)一些(xie)細(xi)微(wei)的语義(yi)差异被(bei)忽(hu)視(shi),從(cong)而影响了模型的学习效果。

2. 存在偏见:

数据标注在機(ji)器学习和人工智能的應(ying)用中扮演著(zhe)重要的角色。

然而,研究顯(xian)示(shi)[5],人類(lei)在标注过程中可能會(hui)引(yin)入偏见,这些偏见可能会影响机器学习模型的训练和性能。

研究發(fa)现,标注员可能会按(an)照(zhao)数据集(ji)創(chuang)建(jian)者(zhe)编寫(xie)的指(zhi)令(ling)中的模式進(jin)行(xing)标注,这种现象(xiang)被稱(cheng)为「指令偏见」。

这些指令可能会导致某(mou)些标注在数据中过度表(biao)示,从而使得AI系(xi)統(tong)对这些标注產(chan)生偏见。

3. 难以评估:

研究表明(ming)[6]大语言模型本身(shen)可以直接通过設(she)計(ji)prompt标注数据。

然而,评估这些模型对数据标注的质量和效果十(shi)分(fen)困难, 因(yin)为如何(he)评判(pan)生成的数据质量是一个主(zhu)觀(guan)的问题。

比如,在生物(wu)醫(yi)学領(ling)域(yu),深度学习模型已(yi)經(jing)显示出在从DNA序(xu)列(lie)中預(yu)测調(tiao)控(kong)效应的巨(ju)大潛(qian)力。

但(dan)人类本身并未(wei)完全(quan)理(li)解模型輸(shu)出的內(nei)容(rong),因此用模型标注的质量难以被人类评判。

4. 标注难度:

即使对專(zhuan)业从业者,一些結(jie)构化数据标注难度仍(reng)然太(tai)大。

比如,在神(shen)经網(wang)絡(luo)计算(suan)圖(tu)数据中,结點(dian)表述操(cao)作符(fu),有(you)向(xiang)邊(bian)表示。

一个表示网络结构的graph列表多达上千(qian)个结点对,人工数结点和嵌(qian)套(tao)的block序列将耗(hao)費(fei)大量时间和精(jing)力。

全新标注方法

团队提出的标注方法包含(han)了one-shot階(jie)段(duan)和生成阶段。

其中,one-shot阶段的目(mu)标是迭代尋(xun)找(zhao)最优的{数据-标注}数据对作为模板(ban)。

迭代过程:

初(chu)始化一个简單(dan)数据对作为初始模版,利用GPT生成标注,生成的标注和原始数据形(xing)成一个新的数据对。

然后,通过比较从标注中还原出来的数据和原始数据,评估这个新数据对作为模板的潜力。

如果还原数据与原数据的相(xiang)似(si)度得分有所(suo)提高,就(jiu)用当前的新数据对直接作为新的模板进行一轮数据生成。

因此,这种自我(wo)对齊(qi)机制(zhi)会迭代调整(zheng)one-shot模板,为下(xia)一轮生成做(zuo)好準(zhun)備(bei)。one-shot阶段搜(sou)索(suo)到的最优模板隨(sui)后用于对数据集进行标注。

作者通过调整不同的预训练獎(jiang)勵(li)模型来评估标注的质量,并引入不同的评價(jia)指标来间接评估摘要的还原能力。

作者在三(san)个具(ju)有挑(tiao)戰(zhan)性的数据集上进行了大量实验,并从各种角度进行了詳(xiang)细的消(xiao)融(rong)研究。

结果表明,这种自我监督范式在奖励模型和还原数据能力的得分的评估中始終(zhong)表现出很(hen)高的性能。

另(ling)外,作者应用該(gai)框架生成了兩(liang)个新的数据集,对基于不同计算操作符的神经网络架构进行的描(miao)述。

作者通过调用OpenAI的API在各种类型的GPT模型上进行了基准测试。

表1展示了davinci,text-curie-001,text-davinci-003,gpt-3.5-turbo在不同评估标准下标注数据质量的得分。

作者在论文中还探(tan)討(tao)如下消融实验:

Q1. 迭代后的one-shot模板在整个过程中扮演什(shen)麽(me)角色?我們(men)是否(fou)能通过zero-shot方法(僅(jin)通过设计的指令instruction-tuning生成摘要), 来达到同樣(yang)的效果?

A1. 与以相同指令为條(tiao)件(jian)的零(ling)样本生成相比,引入样本模板提高了标注质量, 实验细節(jie)如图所示。

此外,作者还在文中还探讨了如下问题:

对还原数据和原数据之(zhi)间的相似度测量评估标准方法会对标注有什么影响?模板的初始化如何影响自监督标注迭代的结果?GPT模型本身的超(chao)參(can)数是否会影响搜索出来的标注模版?

参考(kao)資(zi)料(liao):

[1] https://www.globenewswire.com/news-release/2023/03/01/2618366/0/en/Global-Data-Annotation-Tools-Market-Valuation-to-Reach-US-13-922-4-Million-by-2031-Astute-Analytica.html

[2] https://www.talent.com/salary?job=data+annotator

[3] https://www.ambitionbox.com/profile/data-annotator-salary

[4] https://industrywired.com/why-is-india-booming-as-the-annotation-capital-of-the-world/

[5] https://techcrunch.com/2022/05/08/perceptron-ai-bias-can-arise-from-annotation-instructions/

[6] Ding, B., Qin, C., Liu, L., Bing, L., Joty, S., & Li, B. (2022). Is GPT-3 a Good Data Annotator?. arXiv preprint arXiv:2212.10450.返(fan)回(hui)搜狐(hu),查(zha)看(kan)更多

責(ze)任编辑:

发布于:新疆阿克苏阿克苏市