AI大模型教程
一起来学习

惊!读取大脑重建高清视频,Stable Diffusion还能这么用

现在,AI可以把人类脑中的信息 ,用高清视频 展示出来了!

例如你坐在副驾所欣赏到的沿途美景信息,AI分分钟给重建了出来:

看到过的水中的鱼儿、草原上的马儿,也不在话下:


这就是由新加坡国立大学和香港中文大学共同完成的最新研究,团队将项目取名为MinD-Video

这波操作,宛如科幻电影《超体》中Lucy读取反派大佬记忆一般:

引得网友直呼:

推动人工智能和神经科学的前沿。

值得一提的是,大火的Stable Diffusion也在这次研究中立了不小的功劳。

怎么做到的?

从大脑活动中重建人类视觉任务,尤其是功能磁共振成像技术 (fMRI)这种非侵入式方法,一直是受到学界较多的关注。

因为类似这样的研究,有利于理解我们的认知过程。

但以往的研究都主要聚焦在重建静态图像,而以高清视频形式来展现的工作还是较为有限。


之所以会如此,是因为与重建一张静态图片不同,我们视觉所看到的的场景、动作和物体的变化是连续、多样化的。

而fMRI这项技术的本质是测量血氧水平依赖(BOLD)信号,并且在每隔几秒钟的时间里捕捉大脑活动的快照。

相比之下,一个典型的视频每秒大约包含30帧画面,如果要用fMRI去重建一个2秒的视频,就需要呈现起码60帧。

因此,这项任务的难点就在于解码fMRI并以远高于fMRI时间分辨率的FPS恢复视频。

为了弥合图像和视频大脑解码之间差距,研究团队便提出了MinD-Video的方法。

整体来看,这个方法主要包含两大模块,它们分别做训练,然后再在一起做微调。

这个模型从大脑信号中逐步学习,在第一个模块多个阶段的过程,可以获得对语义空间的更深入理解。

具体而言,便是先利用大规模无监督学习与mask brain modeling(MBM)来学习一般的视觉fMRI特征。

然后,团队使用标注数据集的多模态提取语义相关特征,在对比语言-图像预训练(CLIP)空间中使用对比学习训练fMRI编码器。

在第二个模块中,团队通过与增强版Stable Diffusion模型的共同训练来微调学习到的特征,这个模型是专门为fMRI技术下的视频生成量身定制的。

如此方法之下,团队也与此前的诸多研究做了对比,可以明显地看到MinD-Video方法所生成的图片、视频质量要远优于其它方法。


而且在场景连续变化的过程中,也能够呈现高清、有意义的连续帧。

最后

如果你是真正有耐心想花功夫学一门技术去改变现状,我可以把这套AI教程无偿分享给你,包含了AIGC资料包括AIGC入门学习思维导图AIGC工具安装包精品AIGC学习书籍手册AI绘画视频教程AIGC实战学习等。

这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!

【AIGC所有方向的学习路线思维导图】

【AIGC工具库】

【精品AIGC学习书籍手册】

【AI绘画视频合集】


这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!

文章来源于互联网:惊!读取大脑重建高清视频,Stable Diffusion还能这么用

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » 惊!读取大脑重建高清视频,Stable Diffusion还能这么用
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们