开源AI新星Cogito v2以机器直觉挑战DeepSeek与Claude
快速阅读: 据《AIbase – AI新闻资讯》称,近日,旧金山初创公司 Deep Cogito 推出 Cogito v2 系列大型语言模型,旨在通过“机器直觉”与自我改进的推理能力,在开源 AI 领域脱颖而出。该系列模型参数规模从 70B 至 671B,已在多个平台开放使用,表现出色且训练成本低廉。
近日,旧金山一家备受关注的初创公司 Deep Cogito 推出了其 Cogito v2 系列大型语言模型(LLM),试图在竞争激烈的开源 AI 赛道中脱颖而出。与传统参数堆叠策略不同,这家由前谷歌工程师创立的公司,专注于“机器直觉”与自我改进的推理能力,开发出能够“边用边学”的 AI 模型。
Cogito v2 系列包括四个模型,参数规模从 70B 到 671B 不等,涵盖密集模型(Dense)和专家混合模型(MoE),现已在 Hugging Face、Together AI 等平台开放使用。旗舰模型 Cogito v2-671B MoE 被誉为“思维效率最优”的推理型 AI,其推理路径比 DeepSeek R1 缩短 60%,性能可与 Qwen1.5-72B 和 Claude4Opus 相媲美甚至超越。
该模型的核心技术在于,不仅在运行时进行“内省式推理”,还能将这些推理路径提炼回模型权重中,形成内化直觉。这一机制使模型能够在每次推理中不断“变得更聪明”。Deep Cogito 发布了多个测试样例验证其“机器直觉”。在数学问题中,Cogito671B 通过短至 100 token 的推理链准确得出结论,而 DeepSeek R1 则需 200+ token。在法律类推理中,Cogito v2 采用两步逻辑结构输出清晰结论,表现优于许多模型及实际法学硕士学生。在经典亲属逻辑题“爱丽丝是查理的祖母吗?”中,Cogito v2 成功避开代词混淆陷阱,准确输出“祖母”。
尽管 Cogito v2 的模型规模庞大,但 Deep Cogito 表示,训练 8 个模型的总成本不到 350 万美元,远低于 OpenAI、Anthropic 等公司动辄上亿美元的研发开销。公司首席执行官 Drishan Arora 强调:“更好的模型不是训练更多数据,而是训练更有意义的数据。”这是 Cogito 模型在推理任务上取得突破的关键。
Cogito v2 模型已可通过 Hugging Face、Baseten、RunPod、Unsloth 等平台下载或 API 调用。为适应轻量化部署需求,Cogito671B 推出了 FP8 量化版本,支持大模型以较低硬件门槛运行,推理效率提升,准确率仅略有下降。此外,Deep Cogito 承诺所有模型开源,并将持续迭代优化,构建以“推理链反馈+自我提升”为核心的新模型训练路径。
目前,Cogito v2 已获得 Benchmark 和 South Park Commons 等知名机构的关注和支持,被视为开源 AI 领域的一匹黑马。
(以上内容均由Ai生成)