在斯坦福大学的一场特别访谈中,OpenAI首席执行官山姆·奥特曼向一群大二学生透露了一个震撼消息:下一代人工智能架构正在酝酿之中,其性能提升将不亚于当年Transformer对LSTM的革命性突破。这一言论引发了科技界的广泛关注,因为当前几乎所有大型语言模型,包括ChatGPT和GPT-4,都建立在Transformer架构之上。
奥特曼指出,Transformer架构存在一个根本性缺陷:计算复杂度随文本长度呈平方级增长。这意味着处理十倍长度的文本需要一百倍的计算资源,导致训练和运行高级模型的成本高昂。他透露,OpenAI正在探索利用现有强大模型来加速发现下一代架构,形成一种自我强化的研发循环——模型越先进,发现新架构的概率越高,而新架构又能进一步提升模型性能。
回顾自己的科技生涯,奥特曼分享了多个关键决策时刻。2015年,当深度学习规模扩展的潜力逐渐显现时,他毅然创立了OpenAI,尽管当时这一决定被多数行业专家视为异想天开。他回忆道,公司创立初期,团队成员挤在联合创始人格雷格·布罗克曼的公寓里,在一块临时购买的白板上草拟了最初的核心理念。这些当时看似不切实际的想法,最终奠定了GPT系列模型的基础。
奥特曼特别强调了GPT-2的重要意义,这款模型首次展现出了超越传统计算机程序的能力,让他确信深度学习规模扩展的道路是正确的。尽管出于谨慎考虑,GPT-2的发布曾被推迟,但他认为在人工智能能力跃升的关键节点采取保守态度是合理的。同时,他也警告企业若不能快速拥抱AI技术,将面临被完全自动化AI公司淘汰的风险。
在访谈中,奥特曼做出了多项大胆预测:通用人工智能(AGI)可能在两年内成为现实;编程智能体将成为下一个颠覆性应用领域;未来将出现大量由极少数人创建的微型初创公司,其影响力可与当今大型企业媲美;甚至不排除未来出现AI担任首席执行官的可能性。他同时安抚公众不必过度担忧,认为人类的适应能力远超想象,社会结构不会因AGI出现而彻底崩溃。
针对OpenAI面临的竞争,奥特曼表现出开放态度。他承认谷歌等科技巨头的失误为OpenAI提供了发展空间,并预测未来必将出现超越OpenAI的更成功企业。关于公司高昂的运营成本,他解释称只要预期收益远超投入,资本市场会持续支持这种战略投资。在硬件方面,OpenAI正积极研发定制芯片,但明确表示不会涉足数据中心建设业务。
这场访谈也揭示了"后Transformer时代"的激烈竞争态势。2023年底,Albert Gu和Tri Dao提出的Mamba架构通过状态空间模型(SSM)实现了线性时间复杂度,推理速度比Transformer快五倍。到2025年,英伟达已在新一代模型中大规模采用Mamba-Transformer混合架构,其他科技巨头也纷纷跟进。更激进的创新如液态神经网络,受线虫神经系统启发,用微分方程驱动神经元,在极小参数量下实现了惊人性能。
奥特曼的预言正在逐步成为现实。从LSTM到Transformer的每次架构革新都带来了数量级的性能提升,并催生了定义时代的技术公司。随着"后Transformer"竞赛的升温,下一个科技巨头或许正如奥特曼所描述的,正在某个大学宿舍里对着白板构思改变世界的创意,而他们手中多了一个前所未有的工具——高度发达的AI本身。











