ChatGPT 制造商 OpenAI 计划于 2026 年与半导体公司博通合作开始生产其首款 AI 芯片,但不会对外销售。
据报道,该计划旨在满足日益增长的计算能力和市场控制需求,而非单纯的扩张。OpenAI 和博通均未就此事发表官方评论,但《金融时报》援引知情人士的话称,该芯片将于明年准备就绪。
对于OpenAI,生产硬件是一项巨大的飞跃,因为训练和运行大型语言模型会以惊人的速度消耗计算能力和cash。迄今为止,芯片制造巨头英伟达 (Nvidia) 基本上占据了大部分市场,其 GPU 可以处理数十亿次查询。
然而,依赖单一供应商并非明智之举,因为价格高昂,而且供应可能毫无预警地紧缩。最终,掌握主动权的是芯片制造商,而不是用户。
知情人士向英国《金融时报》,该芯片将由 OpenAI 内部使用,不会提供给外部客户。
去年有报道称,OpenAI 已开始寻找替代方案。
博通首席执行官陈福阳(Hock Tan)周四表示,公司预计2026财年的人工智能收入增长将“显著提升”,此前该公司已从一位未透露姓名的新客户那里获得了超过100亿美元的人工智能基础设施订单。受此消息影响,博通股价上涨了4%。
陈先生在财报电话会议上表示,上个季度有一位新潜在客户下了确定订单,使其成为合格客户。
Tan 进一步表示,另外四家公司正在与博通进行深入讨论,以设计自己的芯片。
整个行业的目标都很明确:减少对英伟达的依赖,削减成本,并优化内部工作负载。目标虽然简单,但路径却并非如此。
OpenAI 加入这股潮流稍晚,落后于谷歌等业内同行。谷歌已经拥有自己的 Tensor 处理单元,而亚马逊则拥有 Graviton 和 Trainium 处理器。社交媒体巨头 Meta 也在推进专有 AI 芯片的研发。
设计、测试和制造硅片成本高昂,技术要求高,风险也很大。即使是最大的科技公司也曾遭遇过挫折。对于本质上是一家软件公司的 OpenAI 来说,挑战更是艰巨。
消息人士称,OpenAI 将很快完成其芯片设计,并将其交付给台积电进行生产。如果一切按计划进行,该芯片可能会改变公司的经济状况:降低运行成本、加快实验周期,并加强对基础设施的控制。然而,问题仍然存在。
这些芯片会永远留在OpenAI内部吗?还是说OpenAI有一天会加入谷歌和亚马逊的行列,销售AI专用硬件?ChatGPT、DALL·E和其他内部系统很可能是首批用户。
这样的合作揭示了一个更广泛的事实:人工智能不仅仅是精妙的算法或数据集,硬件——模型背后的引擎——也同样重要。谁控制了它,谁就对创新的步伐施加了影响。
分析人士将其比作早期的石油繁荣:芯片是燃料,而对供应链的控制决定了谁能胜出。从这个意义上讲,OpenAI 的决策不仅关乎技术,也关乎实力和战略。
这个行业正在快速发展。那些能够设计、构建和运行自有芯片的公司将拥有优势,这不仅体现在成本上,还体现在速度、灵活性和创新性上。OpenAI 与博通的合作或许充满挑战、充满风险且充满野心,但它可能标志着一个新阶段的开始:软件公司将掌控硬件,从而实现他们的 AI 梦想。
如果您正在阅读本文,那么您已经领先一步了。请持续关注我们的新闻通讯。