阿里巴巴推出 AI 模型,可在移动设备上处理图像、视频
快速阅读: 《阿纳多卢代理》消息,阿里巴巴发布新款多模态AI模型Qwen2.5-Omni-7B,支持文本、图像、音频和视频处理,已开源,可应用于实时音频描述和烹饪指导等场景,助力视障人士和烹饪爱好者。
据《南华早报》报道,阿里巴巴集团推出了一款全新的多模态人工智能(AI)模型,该模型能够在智能手机和笔记本电脑上处理文本、图像、音频和视频。
这家公司在周四发布了Qwen2.5-Omni-7B,作为其Qwen系列模型的新成员,旨在巩固其在生成式AI领域的地位。这款多模态的Qwen2.5-Omni-7B模型使普通用户更接近尖端的AI能力。公司已经将其开源,并强调了其潜在的应用场景,例如为视障人士提供实时音频描述,以及通过分析食材给出详细的烹饪指导。该模型的多功能性满足了市场对超越单纯文本生成的AI系统日益增长的需求。
阿里巴巴的基础Qwen模型已经成为AI开发者们的热门选择,成为中国少数几个能够与DeepSeek V3和R1模型相媲美的主要替代方案之一。
安纳多卢网站仅包含部分新闻内容,且以摘要形式呈现。如需更多订阅信息,请联系我们的工作人员。
(以上内容均由Ai生成)