OpenAI 正在开发代号为 "Garlic" 的新型大语言模型,旨在与 Google 的 Gemini 3 和 Anthropic 的 Opus 4.5 竞争。该模型在编程和推理任务的内部基准测试中表现出色。
据 The Information(2025 年 12 月)报道,首席研究官 Mark Chen 透露 Garlic 在关键领域已超越竞争对手。一个显著的技术突破是解决了预训练挑战,使较小的模型能够注入更多知识,同时提高效率。
关于 Garlic 模型开发的关键指标和公告。
OpenAI 宣布 'Code Red' 以应对来自 Google 和 Anthropic 的竞争压力。
内部测试显示 Garlic 在编程和推理方面超越 Gemini 3 和 Opus 4.5。
新方法使较小模型能够包含更多知识,同时提高效率。
预计于 2026 年 Q1 以 GPT-5.2 或 GPT-5.5 的形式公开发布。
应对 Google Gemini 崛起和 AI 行业竞争加剧的战略响应。
专注于提升 ChatGPT 竞争力和核心模型质量。
追踪 Garlic 模型的开发进度。
Mark Chen 向 OpenAI 团队分享 Garlic 的强劲基准测试结果。
Sam Altman 宣布 Code Red,重新聚焦公司核心模型质量。
持续进行预训练并与竞争对手进行评估对比。
预计以 GPT-5.2 或 GPT-5.5 的形式发布。
Garlic 与其他前沿模型的对比。
| Dimension | Garlic | Gemini 3 | Claude 4·5 | GPT-5·1 |
|---|---|---|---|---|
| 编程能力 | 卓越 | 优秀 | 优秀 | 良好 |
| 推理能力 | 卓越 | 优秀 | 卓越 | 良好 |
| 训练效率 | 高 | 中 | 中 | 中 |
| 发布状态 | 2026 Q1 | 已发布 | 已发布 | 已发布 |
基于内部评估的预测性能指标。
| Benchmark | Expected | Actual |
|---|---|---|
| SWE-bench | >70% | 待定 |
| MMMU-Pro | >80% | 待定 |
| Humanity's Last Exam | 顶级 | 待定 |
| HumanEval | >95% | 待定 |
| MATH | >90% | 待定 |
| GPQA Diamond | >75% | 待定 |
数据基于内部评估和行业报告。官方基准测试待公开发布后确认。
Garlic 模型相对于竞争对手的独特优势。
创新方法将更多知识注入较小模型,同时保持效率。
在代码生成、调试和理解大型代码库方面表现出色。
先进的逻辑推理和复杂任务问题解决能力。
使用更小的数据集训练,同时保持与大型模型相当的性能。
专为自主代理工作流和多步骤操作设计。
内置安全措施和负责任 AI 原则进行开发。
不同用户群体如何利用 Garlic 模型。
为您的组织准备 2026 年 Q1 发布。
为您的特定用例建立基准和成功指标。
为 API 成本和集成开发分配资源。
为您的应用程序定义可接受的响应时间。
确保符合数据处理和隐私政策。
设计 API 集成模式和回退策略。
提升团队的提示工程和模型能力技能。
关于 OpenAI Garlic 模型的常见问题。
有更多问题?关注 OpenAI 获取最新动态。
本页面信息的已验证来源。