至今ViddaZ75的声音有玩游戏用7.1声道还是立体声好感吗?

20230131突然想到用AI增强老视频,分别用 #SONY VEGAS# 和#Topaz Video Enhance AI#试了一下。原视频 #480P# ,帧率29.97,分别upscale到 #720P# ,帧率29.97,以及 #1080P# ,帧率59.94。对比之下,感觉AI增强吧,动态确实好一点儿,但静态......总而言之,有点儿像魔术,更多的是对眼睛的一种“欺骗”吧。20230201尝试着用 #SONY VEGAS# 将堪称灾难的 #playstation# 游戏《DUKE NUKEM: PLANET FO BABES》的广告视频UPSCALE到4K59.94,一番操作下来,30秒的视频,耗时40分钟以上,而且原视频也不知是为了制造效果还是还什么的,抖动异常,加上糊得一塌糊涂的画面,导致虽然成功UPSCALE到4K59.94,该视频依然“惨不忍睹”。再试着用#Topaz Video Enhance AI#,没有改分辨率,只是升到了FPS到60,但有针对性地打开“Stabilization”虽然画面的涂抹比较明显,但整体而言已经“美艳动人”了。会长个人的感觉是,如果是专业人士, #SONY VEGAS# 这样的专业软件,不但本身就自带大量的PLUGINS,而且更有第三方的PLUGINS可以使用,可以调整的参数更多,因而最终的效果,应该是更加理想的。而#Topaz Video Enhance AI#可能上限有所不及,但大包大揽,傻瓜化的操作,可以更快地出片,所以,对于业余爱好者,毫无疑问#Topaz Video Enhance AI#更为友好。20230202网络上的许多被增强的视频,似乎过于在乎UPSCALE了。信息量不够,硬拉到1080P,甚至4K,往往“涂抹”过度,细看下来甚至变成“鬼畜”了。试着用 #Topaz Video Enhance AI#把一个 #GameBoy#
MICRO广告的视频从720P降到480P,FPS从29.97拉到60,加上MOTION DEBLUE,看起来反而更锐利、更干净。 20230206用好#Topaz Video Enhance AI#的关键,似乎是选择适当的 #AI# 模型。但是,每一个 #AI# 模型,似乎都有着一定的适用范围。而视频,哪怕是只有30秒的广告,也往往由不同部分的组成,大概根本无法做到精准的适配。如果这样的话,更好地应用#Topaz Video Enhance AI#对视频进行修复、增强的关键,是不是如何对视频进行精准切割,不同的部分适配不同的#AI# 模型,然后再精准地拼合呢?20230207尝试了多种视频切割的方式,还没找到能将原视频“原汁原味”地切割的。这就导致相比#SONY VEGAS#这样的专业软件, 由于可以自带强大得视频分割功能,所以可以一次性地对所有的视频段落适用对应的 #AI# 模型。而#Topaz Video Enhance AI#自带的TRIM,一次只能处理一个切割的视频段落 ,最终还需要额外的整合,而且也无法逐帧调整。由此可见,在视频增强上,撇除易用性,上限还是#SONY VEGAS#这样的专业软件更高。希望#Topaz Video Enhance AI#能增加视频分割的功能,又或者能出对应 #SONY VEGAS# 这样的专业软件的PLUGIN吧。20230208尝试着用#Topaz Video Enhance AI#增强了一个1h58m44s的长视频。由720*404提升到1280*720,25FPS不变。开了Motion Deblur和Enhancement,耗时4h24m23s。好的方面是画面总体感觉更干净、线条更锐利,细节也似乎更多;不好的方面是涂抹的感觉较为明显。看来如何选择增强的项目,并据此选用恰当的 #AI技术# 模型,是用好#Topaz Video Enhance AI#的关键。20230214原视频:640*464,29.97 增强后:1920*1080,59.97增强工具:Vegas 18 Pro 采用滤镜:Smart Upscale,Denoise,Sharpen无法处理画面有大量杂讯、噪点的视频,似乎是#Topaz Video Enhance AI#的短板。1995年 #Super Famicom##灌篮高手#2电视广告,就是这样一个视频。而 #SONY VEGAS# 18 Pro,自带滤镜Denoise,则可以很方便地处理类似的视频。前两张截图是 #SONY VEGAS# 18 Pro增强后的视频的截图,后两张则是#Topaz Video Enhance AI#增强后的视频的截图,差距一目了然。20230215似乎用#Topaz Video Enhance AI# 处理的视频,不论是Upscale,增强,还是提升帧率,色彩都会变“淡”。图一是提升了帧率而且增强的,图二是Upscale而且增强的,图三是Upscale、增强而且提升了帧率的。20230224如果原视频过于“简陋”的话,用 #Topaz Video Enhance AI# upscale后的效果,堪称“鬼畜”,反倒是 #SONY VEGAS# 的smart upscale,虽然模糊,但毕竟真实。 图1、3为#Topaz Video Enhance AI# upscale到1080的效果,图2、4为#SONY VEGAS# smart upscale 4X的效果。20200301因为#Topaz Video Enhance AI#升频可能会导致过度涂抹,而 #SONY VEGAS# 升频后的效果似乎又不是那么明显。所以尝试先用 #SONY VEGAS# 做过渡,升频至720P,然后再用#Topaz Video Enhance AI#升频至1080P。感觉似乎还行。20230303既然用#Topaz Video Enhance AI#升频存在过度涂抹的问题,那就分两步走。原来是用 #SONY VEGAS# 做过渡的,现在试着用#Topaz Video Enhance AI#做过渡。感觉从640*480升到1280*720,FPS不变得话,效果最好;再从1280*720升到1920*1080,FPS由29.97提升至60,反而糊了些。所以,提升分辨率,还是不能太猛。
编译
Glu编辑
李水青智东西6月5日消息,6月1日,英伟达研究院发布了一篇文章,推出其新研制的AI模型——神经朗基罗(Neuralangelo),该模型利用神经网络技术,能够将2D视频片段转换为细节丰富的3D大规模场景。英伟达甚至还展示了对米开朗基罗雕塑作品《大卫》的复刻,使得各种肌肉纹理肉眼可见。除了引人注目的神经朗基罗,英伟达还计划在 6月18日至22日举行的计算机视觉行业顶会CVPR(计算机视觉与模式识别会议)上发布近30款产品,充分展示英伟达在AIGC创新上的突破。一、无需专业设备,随时捕捉复杂细节3D重建技术一直都是计算机图形学的重点研究领域,此前也有多项技术能够实现2D视频转3D模型,但那些技术总是很难捕捉重复的纹理图案、同质的色彩、强烈的色彩变化。与之相比,英伟达的神经朗基罗能够精准捕捉这些复杂细节。它借助了自家的逆向渲染工具即时NeRF(Instant NeRF)的重要技术——即时神经图形基元(instant neural graphics primitives),因此,该模型能够精准再现屋顶瓦片、玻璃板、光滑的大理石等一系列复杂材料的细节纹理,甚至能够重现建筑物的内外部。除了所生成的3D模型有高精细度,神经朗基罗的独特之处还在于它的普适性,即用户甚至不需要使用专门的设备,仅凭借智能手机就能完成一场3D重建。艺术家要完成一个雕像需要三个步骤。首先,通过多个侧面观察物体,以测量其深度、大小和形状等数据;其次,根据测量数据凿出雕塑的主体形状;最后,细致地描绘其中的细节纹理。和艺术家的雕刻过程相似,神经朗基罗的3D重建也会经历三个步骤。首先,通过不同角度的2D视频捕捉关键帧;其次,根据捕捉的关键帧创建一个粗略的3D模型;最后,利用即时神经图形基元技术优化渲染、表现细节。二、英伟达放大招,将于CVPR发布近30个模型英伟达研究院预计将在 6月18日至22日举行的计算机视觉行业顶会CVPR(计算机视觉与模式识别会议)上发布神经朗基罗模型。除了神经朗基罗模型,英伟达还将在大会上展示近30款模型,覆盖姿态识别、三维重建和视频生成等领域。其中DiffCollage是一款能够根据文本提示生成视频序列的AI模型,它还可以用拼图的形式,将小图像拼贴为大图像,最终可以生成长景观图、360度全景图和循环运动图像。结语:神经朗基罗模型2D转3D的重建力,能进一步用于艺术、游戏等领域正如英伟达研究院高级主管兼论文的作者刘明宇(Ming-Yu Liu)所提到的,神经朗基罗模型这种2D转3D的重建能力将给创作者带来巨大好处,甚至引发产业新变革。创意人员可以将这些3D物体导入设计应用程序,进一步运用于艺术、视频游戏开发、机器人和“数字孪生”(Digital Twin)等领域。

我要回帖

更多关于 玩游戏用7.1声道还是立体声好 的文章

 

随机推荐