Model Update2026-04-24VentureBeat

Anthropic 揭露 Claude 效能衰退問題的原因

Anthropic 終於為其 Claude AI 模型的神秘效能衰退問題提供了說明,使用者將此現象稱為「AI 縮水式通膨」,意指隨著時間推移,效能品質出現明顯下降。在一份詳細的技術事後分析報告中,該公司將根本原因歸咎於對 Claude 的「控制框架」和指令集進行更改所導致的非預期後果。 這個問題始於使用者注意到 Claude 的回應似乎不如先前版本連貫、有創意,或感覺受到更多限制。這引發了廣泛的猜測,認為 Anthropic 是否為了降低成本而故意降低模型品質,但該公司強烈否認了這個說法。現在,隨著調查結果的公布,Anthropic 對問題所在提供了透明的說明。 根據該公司表示,對模型底層「控制框架」(即管理模型如何處理輸入和產生輸出的基礎設施)的修改,引入了微妙的矛盾。此外,用於指導 Claude 行為的操作指令更新,無意中造成了相互衝突的優先順序,導致在某些情境下效能下降。 Anthropic 願意公開分享這些發現,在一個通常以保密為特點的行業中,是一個令人耳目一新的舉動。透過透明地說明維護 AI 模型品質所面臨的挑戰,該公司不僅重建了使用者信任,也為更廣泛的 AI 社群提供了寶貴的見解。維護一個大型語言模型並非一勞永逸的工作;它需要持續的監控、測試和微調,以確保一致的效能。 對使用者而言,教訓是:AI 模型出現的效能衰退感知並不總是惡意的。它可能源於更新之間複雜的相互作用,這些更新雖然旨在改善系統,但有時會產生非預期的副作用。Anthropic 的回應為 AI 公司未來應如何處理此類問題樹立了一個正面的先例。

相关资讯

更多 AI 资讯

AIStart.ai · 你的专属 AI 启动台