Subquadratic 獲得 2,900 萬美元融資,推出全球首個 1,200 萬 Token 上下文視窗 AI 模型 SubQ,性能超越 GPT-5.5

發布日期:2026 年 5 月 13 日

2026 年 5 月 13 日11 分鐘閱讀

打破二次方算力瓶頸

自 2017 年 Transformer 架構問世以來,AI 產業始終受困於一個根本性的技術限制:上下文視窗越大,運算成本呈指數級暴增。輸入量翻倍,計算量卻要翻四倍——這就是惡名昭彰的「二次方擴展問題」。如今,一家來自美國邁阿密的 AI 新創公司 Subquadratic 宣稱已找到破解之道,並以 2,900 萬美元種子輪融資為後盾,正式向業界宣戰。

該公司於 2026 年 5 月正式推出旗艦模型 SubQ,其核心技術為自研的 次二次方選擇性注意力架構(Subquadratic Selective Attention,SSA)——一套完全稀疏注意力系統,無論上下文長度如何增長,計算量與記憶體需求均呈線性擴展。

SubQ 的技術突破在哪裡?

傳統 Transformer 模型採用密集注意力(Dense Attention)機制——每一個 Token 都必須與其他所有 Token 進行比對。若有 1,000 個 Token,就需要進行 100 萬次比對;擴展到數百萬 Token 時,運算成本便會天文數字般攀升。

SubQ 的 SSA 架構採取截然不同的策略:透過內容相依選擇機制,動態辨識哪些 Token 之間的關係真正重要,只處理這些有意義的配對,而非盲目比對所有組合。更關鍵的是,這個「選擇」過程本身也不會產生二次方複雜度——這正是 SubQ 有別於 DeepSeek 稀疏注意力等前代方案的核心差異。

技術長 Alexander Whedon 解釋道:

「對於提示 A,第一個和第六個詞彼此重要;對於提示 B,可能是第二個和第三個詞。每個提示的情況都不同。」

這意味著模型能針對每個查詢,動態且高效地只對有意義的 Token 對進行精確注意力計算。

令人震驚的性能數據

Subquadratic 公布的性能數據相當驚人:

  • 1,200 萬 Token 上下文視窗——相當於約 900 萬個英文單詞,或大約 120 本書的內容一次處理
  • 在 100 萬 Token 規模下,速度比 FlashAttention 快 52 倍
  • 在 1,200 萬 Token 的「大海撈針」檢索測試中,準確率高達 92.1%——目前沒有任何前沿模型能達到此上下文長度
  • MRCR v2 基準測試得分 83%,比 OpenAI GPT-5.5 的 74% 高出 9 個百分點
  • SWE-bench 得分 82.4%,超越 Anthropic Claude Opus 4.6(81.42%)及 Google Gemini 3.1 Pro(80.6%)
  • RULER 128K 基準測試中,SubQ 以僅 8 美元達到 95% 準確率,而 Claude Opus 同樣測試需花費約 2,600 美元,成本降低約 300 倍
  • 在完整 1,200 萬 Token 上下文下,運算需求比其他前沿模型降低近 1,000 倍

誰在投資 Subquadratic?

本輪 2,900 萬美元種子輪融資吸引了一批重量級投資人,包括:

  • Javier Villamizar,前軟銀願景基金合夥人
  • Justin Mateen,Tinder 共同創辦人、JAM Fund 創辦人
  • Anthropic、OpenAI、Stripe、Brex 的早期投資人

公司由執行長 Justin Dangel 與技術長 Alexander Whedon 共同創立,目前已組建了一支擁有 11 位博士研究員的技術團隊。

Subquadratic 正在打造什麼?

融資資金將投入三大產品方向:

  • SubQ API — 開放給開發者與企業用戶,完整支援 1,200 萬 Token 上下文視窗
  • SubQ Code — 命令列介面編程代理,可將整個程式碼庫載入單一上下文視窗,無需多代理協調
  • SubQ Search — 深度研究工具,初期免費提供,主攻長上下文研究與企業應用場景

模型近期不會開源,但將支援客戶專屬的微調訓練。

更宏觀的產業影響

這項突破的意義遠超過基準測試數字本身。目前,開發者不得不構建複雜的變通方案——RAG 管道、代理檢索系統、分塊策略——僅僅是為了應對上下文視窗的限制。這些系統帶來了額外的延遲、成本與脆弱性。

若 SubQ 的架構能在規模化部署中站穩腳跟,這些變通方案或將成為歷史。整個程式碼庫、法律文件檔案、研究語料庫與企業知識庫,都可以在單次推理中完整處理,無需繁瑣的資料篩選流程。

Subquadratic 更已預告,路線圖上還有一款 5,000 萬 Token 上下文視窗的模型——這個數字將讓今日的前沿模型相形見絀。

正如執行長 Justin Dangel 所言:

「Transformer 架構與密集注意力所施加的基本擴展定律,已被我們突破。」

緊貼最新動態

隨時掌握最新新聞與更新