Model Update2026-05-08
VentureBeat
Sakana 訓練 7B 模型來協調頂尖 AI 模型
Sakana AI 推出了一種創新方法來管理現代 AI 流程的複雜性,發布了「RL Conductor」,這是一個使用強化學習訓練的緊湊型 70 億參數模型。這個小巧但功能強大的模型旨在協調對更大、能力更強的 AI 模型(如 GPT-5、Claude Sonnet 4 和 Gemini 2.5 Pro)的呼叫。其目標是透過動態地將每個查詢路由到最合適的模型,來消除困擾傳統 LangChain 流程的瓶頸和低效率,從而提高效率和適應性。
RL Conductor 解決的核心問題是許多 AI 協調框架的「一刀切」方法。在典型的 LangChain 設定中,開發人員可能會硬編碼哪個模型用於特定任務,或使用簡單的基於規則的系統。這通常會導致次優的效能,因為一個小型、快速的模型可能完全足以處理簡單的查詢,而一個複雜的推理任務可能需要頂尖模型的全部能力。RL Conductor 透過充當智慧路由器來解決這個問題。它經過強化學習訓練,能夠評估傳入的請求,並即時決定哪個可用的較大模型最適合處理它,從而平衡準確性、成本和延遲等因素。
這種方法特別引人注目的地方在於其效率。RL Conductor 僅有 70 億個參數,輕量到可以在普通的硬體上運行,卻能管理規模大上數個數量級的模型的輸出。這意味著公司可以部署一個單一的智慧閘道器來優化其 AI 資源使用,而無需投資於龐大的基礎設施。強化學習的訓練過程使模型能夠透過反覆試驗來學習最佳的路由策略,有效地發現人類工程師可能忽略的查詢類型和模型效能模式。
Sakana AI 的這項創新代表了邁向更智慧的 AI 系統管理的重要一步。
