Memories AI推出全球首个AI视觉记忆模型 获800万美元种子轮投资
快速阅读: 据相关媒体报道,美国初创公司Memories AI发布全球首个大型视觉记忆模型LVMM,可长期存储和检索视频信息。获800万美元融资,应用于安防、营销等领域。
据AIbase报道,9月12日,美国硅谷,由前Meta研究员、剑桥大学计算机科学博士创立的AI研究实验室Memories AI正式发布了全球首个人工智能大型视觉记忆模型(Large Visual Memory Model,简称LVMM)。这一技术突破旨在赋予AI类似人类的视觉记忆能力,使机器能够“看到、理解并记住”视觉信息。同时,Memories AI宣布完成800万美元的种子轮融资,由Susa Ventures领投,Samsung Next、Crane Venture Partners、Fusion Fund、Seedcamp和Creator Ventures等知名投资机构参与。
LVMM是Memories AI的核心技术,它是业内首个能够持续捕获、存储和回忆视觉信息的AI架构。与传统AI系统相比,LVMM能够处理长达数百万小时的视频数据,构建持久、可搜索的视觉记忆库。这一技术通过三层架构实现:首先对视频进行降噪和压缩,提取关键信息;其次创建可搜索的索引层,支持自然语言查询;最后通过聚合层将视觉数据结构化,使AI能够识别模式、保留上下文并进行跨时间比较。
LVMM技术已在多个领域展现巨大潜力,包括物理安全、媒体与营销、机器人与自动驾驶等。在物理安全方面,LVMM为安防公司提供异常检测功能,通过分析长时间监控视频,快速发现潜在威胁。在媒体与营销领域,LVMM帮助营销团队分析社交媒体上的海量视频内容,识别品牌提及、消费者趋势和情感倾向。此外,LVMM还支持机器人执行复杂任务,或帮助自动驾驶汽车记住不同路线的视觉信息。
Memories AI的平台支持通过API或聊天机器人网页应用访问,用户可以上传视频或连接自己的视频库,通过自然语言查询视频内容。这种灵活的交互方式使其适用于从企业级解决方案到个人化应用的广泛场景。
Memories AI的种子轮融资从最初目标的400万美元增至800万美元,显示出投资者对其市场潜力的强烈信心。资金将用于扩大工程团队、深化隐私与合规框架的研发,以及加速企业客户的引入。有投资者表示,Memories AI的长期视频智能技术将为机器人、企业软件、消费电子乃至通用人工智能(AGI)提供关键基础设施,市场潜力覆盖多个万亿美元级行业。
Memories AI由两位前Meta Reality Labs研究员共同创立,他们在视觉AI和设备端学习领域拥有深厚积累。首席执行官曾深入研究多模态AI,探索人类视觉记忆机制,而首席技术官则在Meta开发了多项生产级AI系统。他们的技术洞见和对AI记忆瓶颈的深刻理解,为Memories AI的创新奠定了基础。
作为AIbase编辑部,我们认为Memories AI的LVMM技术不仅填补了AI在长期视频理解上的空白,更为AI从“即时反应”向“动态学习”的转变铺平了道路。通过赋予AI类人般的视觉记忆能力,Memories AI有望在安防、营销、消费电子和机器人等领域掀起一场技术革命。尽管面临来自Google、TwelveLabs等竞争对手的挑战,但其“横向”技术架构使其能够兼容多种视频模型,展现出强大的灵活性。
Memories AI的诞生标志着AI视觉记忆领域的重大突破。从处理千万小时的视频到赋能下一代智能设备,其大型视觉记忆模型正在重新定义AI的可能性。
(以上内容均由AI生成)