5月9日,Meta发布了ImageBind,一个跨六种模态(图像、文本、深度、热度图、音频和IMU数据)的整体化人工智能模型。
Meta ImageBind 多模态模型开源,这是一个像人类一样结合不同感官的新AI模型。它可以理解图像、视频、音频、深度、热量和空间运动。我们离AGI又进一步。 当人类看到一辆行驶中的火车,不仅会使用视觉,还会听到声音,感知距离,感知速度。 ImageBind 也是类似,它将六种数据,文本,音频,视觉,运动,温度,深度,嵌入到一个向量空间,让模型像千脑智能那样,调动不同的感知区域进行「交谈」并做出全面的解释和判断。
这一技术让机器在整合多种感官信息方面更接近人类。
demo:https://imagebind.metademolab.com/demo
模型下载:https://dl.fbaipublicfiles.com/imagebind/imagebind_huge.pth
论文:https://arxiv.org/abs/2305.05665
版权声明:除特殊说明外,本站所有文章均为 字节点击 原创内容,采用 BY-NC-SA 知识共享协议。原文链接:https://byteclicks.com/49244.html 转载时请以链接形式标明本文地址。转载本站内容不得用于任何商业目的。本站转载内容版权归原作者所有,文章内容仅代表作者独立观点,不代表字节点击立场。报道中出现的商标、图像版权及专利和其他版权所有的信息属于其合法持有人,只供传递信息之用,非商务用途。如有侵权,请联系 gavin@byteclicks.com。我们将协调给予处理。
赞