6月中旬,OpenAI在全球AI行业格局最热的时候,突然在网上正式发布了两款全新开源权重语言模型gpt-oss-120b和gpt-oss-20b,这也是自2019年开源GPT-2以来的首次尝试,让不少开发者和技术圈都炸开了锅。
当天,整个AI圈一片沸腾,OpenAI、Anthropic、Google DeepMind三大巨头在同一天各自发布重磅产品,有业内人说,这就是“神仙打架”的现场。OpenAI CEO奥特曼更是第一时间晒出了团队的成绩单,直言“这是技术上的重大胜利”,并称新模型在性能上已经能媲美自家o4-mini,能在高端笔记本上流畅运行。
说回gpt-oss本身,这次的开源可谓下足诚意:gpt-oss-120b参数规模达到1170亿,激活参数51亿,支持H100 GPU及主流高端PC,运行内存仅需80GB,适合数据中心与本地化环境。而gpt-oss-20b参数也有210亿,激活参数36亿,内存需求只要16GB,让开发门槛大幅降低,不少网友已经用它跑起来编写小游戏,体验接近23 tokens每秒。就连网友在经典数理逻辑和小球运动等测试中,也发现这批模型解题思路清楚、表现不俗,只是在难度极高的六边形问题上还会有卡壳,但整体性能已经赶上众多闭源产品。
而这次开源背后的关键人物,也是技术圈里小有名气的Zhuohan Li——北大本硕、伯克利博士、分布式系统和大模型推理专家。在他的带领下,gpt-oss系列用上了MoE(专家混合)、Flash Attention、RoPE等多项前沿技术,大幅提升了同等硬件下的模型吞吐率和运行效率。gpt-oss-120b全程消耗210万H100小时完成训练,用了原生MXFP4量化技术,能让百亿级模型塞进笔记本或台式电脑里高效运行。
更值得一提的是,gpt-oss系列彻底开放了底层权重和代码,使用宽松的Apache 2.0协议,没有Copyleft约束,这给开发者巨大的自由空间:既可以按业务需求微调,也能直接用于商用部署。开发场景覆盖从私人本地部署、定制化任务,到混合数据中心落地。而OpenAI官方还提前联合微软、英伟达、AWS等生态厂商适配了各大主流工具平台,包括Hugging Face、Ollama、llama.cpp等,免去了小白入门的各种配置烦恼。甚至在安全性上,OpenAI还用“最坏情况微调”方案提前做了多轮风控评估,只为让开源模型在自由可用和安全守底之间找到平衡。
同一天发布闭源旗舰Claude Opus 4.1的Anthropic,虽然还在坚持高价高壁垒策略,但功能打磨和算法优化依然得到不少开发者认可。Google DeepMind的Genie 3也紧随其后,高效生成可交互世界的能力同样让人惊喜。三家其实各有打法:OpenAI展现开放姿态,Anthropic守稳高端壁垒,而Google坚持技术创新,让行业用户真正有了选择权。
回头OpenAI这次从闭源到开源的转身,多少带着一点形势所迫的意味。压力来自市场新锐,OpenAI CEO也在公合坦言,之前在开源方面“站在历史的错误一边”。趋势来了挡都挡不住,封闭的壁垒最终还是得向生态和开发者低头。
但无论公司选择哪条路,有一点是确定的:对于开发者和技术爱好者来说,这真的是最好的时代。不管是想深度微调、打造本地私有AI,还是希望用最前沿的闭源服务,都有了合适的解决方案。技术开放与壁垒、商业与自由之间,可能永远没有“绝对的最佳”,但只要大家能根据自身的实际目标和需求挑选适合自己的工具,这个AI新纪元就值得我们共同期待。
模型和产品再强大,也别忘了安全和创新永远是AI世界里的底线。选择开放,意味着责任;拥抱技术,也请留心风险。希望每个开发者和团队,都能在自己的舞台上,创造出让人惊叹的新可能。