《金瓶梅》高清观看,快播免费在线播放

金瓶梅高清观看,快播免费在线播放

1. 金瓶梅的背景和故事梗概

金瓶梅是中国明代小说,描写了明代中期市井生活和男女关系的一部作品。小说主要讲述了西门庆寻欢作乐、杀人泼墨、千方百计地追求潘金莲等一系列荒诞不经、放肆淫乱的故事。小说的背景设置在南京,小说呈现出了当时百姓生活、家庭婚姻和官场斗争的一面,反映了明代市井生活的真实面貌。

故事中,西门庆因事多次买卖妓女,后来与潘金莲结为夫妻。金莲本来是他兄弟的妻子,因其丈夫去世,她嫁入了西门庆家。西门庆每天寻花问柳,甚至不惜杀人泼墨,最终引起了官府的注意。此外,小说中还出现了很多有趣的人物和故事,如吴月娘、武大郎、董娇儿等。

2. 金瓶梅的文学价值

金瓶梅是中国古代小说中的经典之作,被誉为中国古代小说四大名著之一。它通过描写市井生活和人物关系,生动地反映了明代中期社会的风俗、习惯和道德观念。小说还运用了大量的曲艺和俚语,丰富了小说的语言风格,使小说更加生动、形象。

此外,小说中还深入探讨了人性、道德、情感等方面的问题,如西门庆为了满足自己的私欲而不择手段,潘金莲则因为利益而助纣为虐,这些都反映了人性中的负面因素。小说中的各种道德败坏现象,也为当代人提供了深刻的反思。

3. 快播免费在线播放的安全问题

在中国,快播曾经是最受欢迎的视频播放软件之一,但随着版权和安全问题的逐渐暴露,它的地位已经逐渐下降。快播曾被指控传播色情、暴力等违法内容,曾经出现过用户被勒索和私自下载病毒等安全问题。因此,我们不建议使用快播等存在安全问题的软件观看金瓶梅等影视作品。

目前,国内已有很多正规的视频网站,如优酷、爱奇艺、腾讯视频等,这些网站都有严格的版权保护和安全检测机制,用户可以安心观看。此外,也可以考虑使用付费的会员服务,以获得更好的观影体验。

4. 金瓶梅的影响和争议

金瓶梅虽然具有很高的文学价值,但由于小说描写的是淫乱、权力和欲望等负面因素,因此其一直被争议和禁止。在明代,由于小说的内容过于荒诞不经,被官方禁止;而在清代,虽然被认为是古典小说的代表作品,但由于其描写的是骄纵淫乱的内容,仍然受到批评和严格限制。

然而,金瓶梅也具有很重要的文化价值,它揭示了明代市井生活的真实面貌,为今人了解古代社会提供了重要参考。同时,金瓶梅的形式和内容,也对后来的文学创作产生了巨大影响。

总结

金瓶梅是中国古代小说中的经典之作,具有很高的文学价值。然而,我们也应该看到小说描写的淫乱、权力和欲望等负面因素,应该保持对小说的批判精神,提高自己的道德素质。此外,观看金瓶梅等影视作品时,应注意保护个人隐私和安全,避免使用存在安全问题的软件。

问答话题

1. 金瓶梅的故事背景是什么?

答:金瓶梅的故事背景主要设置在南京城,描写了明代中期的市井生活和男女关系。

2. 快播观看金瓶梅是否安全?

答:不建议使用快播等存在安全问题的软件观看影视作品。应该选择正规的视频网站观看,以保证个人安全。

《金瓶梅》高清观看,快播免费在线播放随机日志

智能OCR文字识别,手机拍纸质文件,搜上面的字就能找到它!

1、点击“连接”按扭即可发起连接,如果连接成功,该按钮将成“断开”字样。

2、天气信息实时查看还是很不错的,能够让你获得更好的出行服务。

3、【内容综合】企业的员工以及领导可以学习到更多的办事经验,具备着海量的知识板块,所有的板块分类都很明确,在这里不仅仅能够更好的学习,同时还能够在软件内查找和企业有关的创新能力,随时都能够在线查询每一个企业的信息查询,专利查询政策等等,让各大企业可以迅速明确自身的发展方向,是一个非常实用能够为企业带来很大帮助的综合性软件。

4、易学易懂,还能随时为各位学员解答疑惑,学习更加的便捷轻松

5、Finalshell就等于xshell和FileZilla的结合版。

<随心_句子c><随心_句子c><随心_句子c><随心_句子c><随心_句子c>AIGC發(fa)展(zhan)太(tai)快(kuai)!Meta发布(bu)首(shou)個(ge)基(ji)於(yu)文(wen)本(ben)的(de)4D視(shi)頻(pin)合(he)成(cheng)器(qi):3D遊(you)戲(xi)建(jian)模(mo)師(shi)也(ye)要(yao)下(xia)崗(gang)了(le)?

新(xin)智(zhi)元(yuan)報(bao)道(dao)

編(bian)輯(ji):LRS

【新智元導(dao)讀(du)】文本到(dao)2維(wei)圖(tu)像(xiang)、2维视频、3维模型(xing),現(xian)在(zai)終(zhong)于发展到3维模型视频了!

AI生(sheng)成模型在過(guo)去(qu)這(zhe)段(duan)時(shi)間(jian)裏(li)取(qu)了巨(ju)大(da)的進(jin)展,就(jiu)图像領(ling)域(yu)來(lai)說(shuo),用(yong)戶(hu)可(ke)以(yi)通(tong)过輸(shu)入(ru)自(zi)然(ran)語(yu)言(yan)提(ti)示(shi)来生成图像(如(ru)DALL-E 2,Stable Diffusion),也可以在时间维度(du)上(shang)擴(kuo)展生成連(lian)續(xu)的视频(如Phenaki),或(huo)者(zhe)在空(kong)间维度上扩展直(zhi)接(jie)生成3D模型(如Dreamfusion)。

但(dan)到目(mu)前(qian)為(wei)止(zhi),这些(xie)任(ren)務(wu)仍(reng)然處(chu)于孤(gu)立(li)的研(yan)究(jiu)狀(zhuang)態(tai),彼(bi)此(ci)之(zhi)间不(bu)存(cun)在技(ji)術(shu)交(jiao)集(ji)。

最(zui)近(jin)Meta AI的研究人(ren)員(yuan)結(jie)合了视频和(he)三(san)维生成模型的優(you)勢(shi),提出(chu)了壹(yi)个全(quan)新的文本到四(si)维(三维+时间)生成系(xi)統(tong)MAV3D(MakeA-Video3D),將(jiang)自然语言描(miao)述(shu)作(zuo)为输入,並(bing)输出一个動(dong)态的三维場(chang)景(jing)表(biao)示,可以從(cong)任意(yi)的视角(jiao)进行(xing)渲(xuan)染(ran)。

論(lun)文鏈(lian)接:https://arxiv.org/abs/2301.11280

項(xiang)目链接:https://make-a-video3d.github.io/

MAV3D也是(shi)第(di)一个可以根(gen)據(ju)給(gei)定(ding)文本描述来生成三维动态场景的模型。

文中(zhong)提出的方(fang)法(fa)使(shi)用了一个4D 动态神(shen)經(jing)輻(fu)射(she)场(NeRF) ,通过查(zha)詢(xun)基于文本到视频(T2V)扩散(san)的模型来优化(hua)场景表现、密(mi)度和運(yun)动一致(zhi)性(xing),由(you)提供(gong)的文本生成的动态视频输出可以从任何(he)攝(she)像機(ji)的位(wei)置(zhi)和角度觀(guan)看(kan),并且(qie)可以合成到任意的3D環(huan)境(jing)中。

該(gai)方法可用于为视频游戏、视覺(jiao)效(xiao)果(guo)或增(zeng)強(qiang)型和虛(xu)擬(ni)现實(shi)生成3D資(zi)產(chan)。

與(yu)图像生成和视频生成任务不同(tong)的是,互(hu)聯(lian)網(wang)上有(you)大量(liang)的caption數(shu)据可供訓(xun)練(lian),但卻(que)连一个现成的4D模型集合都(dou)沒(mei)有。

柯(ke)基玩(wan)球(qiu)

MAV3D的训练不需(xu)要任何3D或4D数据,T2V 模型只(zhi)需要在文本-图像對(dui)和未(wei)標(biao)記(ji)的视频上进行训练。

在实驗(yan)部(bu)分(fen),研究人员进行了全面(mian)的定量和定性实验以證(zheng)明(ming)该方法的有效性,对之前建立的內(nei)部基線(xian)有明顯(xian)提升(sheng)。

文本到4D动态场景

由于缺(que)乏(fa)训练数据,研究人员为了解(jie)決(jue)这个任务構(gou)想(xiang)了幾(ji)種(zhong)思(si)路(lu)。

一种方法可能(neng)是找(zhao)到一个預(yu)先(xian)训练好(hao)的二(er)维视频生成器,并从生成的视频中提煉(lian)出一个四维重(zhong)建。不过从视频中重建可變(bian)形(xing)物(wu)體(ti)的形状仍然是一个非(fei)常(chang)具(ju)有挑(tiao)戰(zhan)性的問(wen)題(ti),即(ji)非剛(gang)性运动结构(Non-Rigid Structure from Motion, NRSfM)。

如果给定物体的多(duo)个同步(bu)视點(dian)(multiple simultaneous viewpoints),任务就变得(de)簡(jian)單(dan)了。雖(sui)然多机位設(she)置在真(zhen)实数据中很(hen)少(shao)見(jian),但研究人员認(ren)为,现有的视频生成器隱(yin)含(han)了生成场景的任意视点模型。

也就是说,可以将视频生成器作为一个「统計(ji)學(xue)」的多摄像机设置来重建可变形物体的几何和光(guang)度。

MAV3D算(suan)法通过优化动态神经辐射场(NeRF)与将输入文本解碼(ma)成视频,对物体周(zhou)圍(wei)的隨(sui)机视点进行采(cai)樣(yang)来实现该目的。

直接使用视频生成器来优化动态NeRF并没有取得令(ling)人滿(man)意的结果,实现过程(cheng)中還(hai)有几个難(nan)题需要攻(gong)克(ke):

1. 需要一个有效的、端(duan)到端可学習(xi)的动态三维场景表征(zheng);

2. 需要一个有監(jian)督(du)学习的数据源(yuan),因(yin)为目前并不存在大規(gui)模的(文本,4D)对的数据集可供学习;

3. 需要在空间和时间维度上扩展输出的分辨(bian)率(lv),因为4D输出需要大量的内存和计算能力(li);

MAV3D模型

MAV3D模型基于神经辐射场(NeRFs)的最新工(gong)作,结合了高(gao)效(靜(jing)态)NeRFs和动态NeRFs中的成果,并将4D场景表示为六(liu)个多分辨率特(te)征平(ping)面的集合。

为了在没有相(xiang)應(ying)(文本、4D)数据的情(qing)況(kuang)下监督这种表示,研究人员提出了一个用于动态场景渲染的多階(jie)段训练pipeline,并证明了每(mei)个組(zu)件(jian)在实现高質(zhi)量结果中的重要性。

一个比(bi)較(jiao)關(guan)鍵(jian)的观察(cha)结果是,使用Text-to-Video(T2V)模型,利(li)用Score Distillation Sampling(SDS)直接优化动态场景會(hui)导致视觉偽(wei)影(ying)和次(ci)优收(shou)斂(lian)。

所(suo)以研究人员選(xuan)擇(ze)首先利用文本到图像(T2I)模型,将静态的三维场景与文本提示相匹(pi)配(pei),随後(hou)再(zai)用动态的方式(shi)增强三维场景模型。

此外(wai),模型中还引(yin)入了一个新的temporal-aware SDS損(sun)失(shi)和运动正(zheng)則(ze)项,通过实验证明了其(qi)对现实中和具有挑战性的运动至(zhi)关重要。

并且通过一个額(e)外的temporal-aware超(chao)分辨率微(wei)調(tiao)阶段扩展到更(geng)高分辨率的输出。

最后使用T2V模型的超級(ji)分辨率模塊(kuai)的SDS来獲(huo)得高分辨率的梯(ti)度信(xin)息(xi)来进行有监督学习三维场景模型,增加(jia)其视觉保(bao)真度,能夠(gou)在推(tui)理(li)过程中对更高分辨率的输出进行采样。

实验部分

評(ping)價(jia)指(zhi)标

使用CLIP R-Precision来评估(gu)生成的视频,可以用于衡(heng)量文本和生成场景之间的一致性,可以反(fan)应输入提示从渲染的框(kuang)架(jia)中的檢(jian)索(suo)準(zhun)確(que)性。研究人员使用CLIP的ViT-B/32变体,并在不同的视图和时间步中提取幀(zhen)。

除(chu)此之外还使用了四个定性指标,通过询问人類(lei)标註(zhu)员在兩(liang)个生成的视频中的偏(pian)好,可以得出(i)视频质量;(ii)对文本提示的忠(zhong)实度;(iii)运动量;以及(ji)(iv)运动的真实性。

Text-to-4D对比

由于之前没有文字(zi)轉(zhuan)4D的方法,所以研究人员建立了三个基于T2V生成方法的基线用于对比,二维帧的序(xu)列(lie)就会用三种不同的方法转化为三维场景表示的序列。

第一个序列是通过one-shot神经场景渲染器(Point-E)得到;第二个是通过对每一帧獨(du)立应用pixelNeRF生成的;第三个是应用D-NeRF结合使用COLMAP提取的相机位置。

可以看出,该方法在客(ke)观的R-精(jing)度指标上超过了基线模型,并且在所有指标上都得到了人类标注员更高的评价。

此外,研究人员还探(tan)索了该方法在不同相机视角下的表现。

消(xiao)融(rong)实验

1、 在没有场景超分辨率(SR)微调的情况下训练的模型,其步驟(zhou)数与MAV3D相同(阶段3)的情况下,人类标注员在质量、文本对齊(qi)和运动方面都更傾(qing)向(xiang)于选择用SR训练的模型。

此外,超分辨率微调增强了渲染视频的质量,使高分辨率视频具有更精細(xi)的细節(jie)和更少的噪(zao)音(yin)。

2、無(wu)预训练:在直接优化动态场景(没有静态场景预训练)的步骤与MAV3D相同的情况下,结果是场景质量低(di)得多或收敛性差(cha):在73%和65%的情况下,用静态预训练的模型在视频质量和现实运动方面更受(shou)歡(huan)迎(ying)。

參(can)考(kao)资料(liao):

https://arxiv.org/abs/2301.11280返(fan)回(hui)搜(sou)狐(hu),查看更多

責(ze)任编辑:

发布于:吉林延边延吉市