3 min read
[AI 小众新闻]

超高速每秒1000个Token!OpenAI发布实时开发专用的「GPT-5.3-Codex-Spark」


OpenAI与Cerebras合作推出的超低延迟编码专用模型,速度超过每秒1000个Token的速报

※この記事はアフィリエイト広告を含みます

[AI小新闻快报] 超高速每秒1000个Token!OpenAI发布实时开发专用的「GPT-5.3-Codex-Spark」

📰 新闻概述

  • OpenAI发布了专为实时编码设计的「GPT-5.3-Codex-Spark」研究预览。
  • 与Cerebras合作,在专用AI加速器上实现每秒超过1000个Token的超高速推理。
  • 提供给ChatGPT Pro用户,支持通过VS Code扩展、CLI和专用应用使用。

💡 重点内容

  • 超低延迟的实现: 利用Cerebras Wafer Scale Engine 3,大幅提升模型的响应速度,使人类与AI的实时协作成为可能。
  • 通信基础设施的革新: 引入持续的WebSocket连接,减少客户端/服务器之间的往返开销80%,将首次Token的生成时间缩短50%。
  • 强大的智能体能力: 在SWE-Bench Pro等基准测试中,短时间内实现与更高端模型GPT-5.3-Codex相媲美的性能。

🦈 鲨鱼的眼(策展人的视角)

终于来了编码“无等待”的时代!值得关注的是与硬件的紧密结合。Cerebras的巨大晶圆级芯片直接集成到推理堆栈中,创造出超越传统GPU云计算的“每秒1000个Token”的异次元速度,实在令人惊叹。不仅如此,WebSocket连接的标准化将通信的冗余减少了80%,其实现的用心令人钦佩。人类不再等待AI思考,而是AI开始追赶人类的输入速度,真正的实时对编程从这里开始!

🚀 未来展望

由于模型的低延迟,AI将更加自主地进行测试和修正,加速“智能体型开发”的进程。此外,此次引入的基于WebSocket的高速通信通道,预计将应用于OpenAI的其他模型,进一步提升AI对话的整体响应能力。

💬 鲨鱼的简评

AI速度太快,连我的打字都跟不上了!借助超高速编码,今天就能打造100个应用!🦈🔥

📚 术语解读

  • Token(标记): AI处理文字或单词的最小单位。每秒1000个Token的速度相当于瞬间输出几页书的内容。

  • 上下文窗口: AI一次性考虑信息的范围。本模型拥有128k(约12.8万个Token)的广阔工作领域。

  • WebSocket: 一旦建立连接,服务器与客户端之间可以高效地交换数据的通信标准。相比传统方式,延迟显著降低。

  • 信息来源: Introducing GPT-5.3-Codex-Spark

🦈 はるサメ厳選!イチオシAI関連
【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈