新型人工智能模型声称可改善任何视频质量

2020-02-28
关注
摘要 该AI模型框架可从低帧频、低分辨率视频生成高分辨率慢动作视频。据悉,该项目研究人员打算在今年夏天对外公布源代码。

  眼下,研究人员越来越多地使用AI将历史镜头转换为高分辨率、高帧率的视频,看起来就像是用现代设备拍摄。为简化该过程,罗切斯特大学、东北大学和普渡大学的研究人员最近提出了一种框架,该框架可从低帧频、低分辨率视频生成高分辨率慢动作视频。据悉,该项目研究人员打算在今年夏天对外公布源代码。


资料图

  据研究团队表示,他们使用的“时空视频超分辨率(STVSR)”算法不仅在图像质量上比现有方法更好,而且比以前的最新AI模型快三倍。

  就某种意义上而言,这一框架的提出是继英伟达在2018年发布的针对视频处理AI模型后的再次提升,当年英伟达的AI模型可以对任何视频应用进行慢动作处理。据了解,类似的高分辨率技术已经应用于视频游戏领域。去年,《最终幻想》的用户通过使用一款名为AI Gigapixel的软件来提高《最终幻想VII》的背景分辨率正是基于这类技术。

  具体而言,STVSR同时学习时间插值(如何在原始帧之间合成不存在的中间视频帧)和空间超分辨率(如何从相应的参考帧及其相邻帧中重建高分辨率帧);与此同时,得益于伴随的卷积长短期记忆模型,它能够利用视频上下文和时间对齐来从聚合特征中重建帧,以此合成高分辨率慢动作视频。

  研究人员使用来自Vimeo的60000多个7帧剪辑的数据集对STVSR进行了培训,并使用单独的评估语料库将数据集划分为快动作、正常动作和慢动作集,以测量各种条件下的性能。在实验中,他们发现STVSR在快动作的视频上获得了显著的改进,包括那些具有挑战性的动作视频,例如篮球运动员在球场上快速移动的视频。据外媒报道称,该AI模型具有更精确图像结构和更少模糊伪影的帧重建能力,同时又比基准模型小四倍、快至少两倍。

  “通过这种单阶段设计,我们的网络可很好地探索任务中时间插值与空间超分辨率之间的内在联系,” 预印本论文的合著者写道。“它使我们的模型能够自适应地学习,以利用有用的本地和全局时间上下文来缓解大型运动问题。大量的实验表明,我们的框架比现有AI模型更有效、效率更高,并且所建议的特征时间插值网络和可变形模型能够处理非常具有挑战性的快速运动视频。”

  自新型冠状病毒肺炎疫情爆发以来,新利18国际娱乐一直密切关注疫情进展,根据国家及地方政府的最新调控与安排,为更好的服务相关企业,在疫情期间,新利18国际娱乐免费发布企业相关文章,免费成为新利18国际娱乐认证作者,请点击认证,大家同心协力,抗击疫情,为早日打赢这场防控攻坚战贡献自己的一份力量。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

传神阿堵

传感器行业分析师,主要从事传感器应用,市场分析等领域,现为新利18国际娱乐专栏编辑。

关注

点击进入下一篇

华为首款AI音箱:可通过HiLink开放协议控制19个家电品类

提取码
复制提取码
点击跳转至百度网盘