Model Update2026-04-24
VentureBeat
Anthropic、Claudeの性能低下問題の原因を解明
Anthropicはついに、ユーザーが「AIシュリンクフレーション」と呼んだ、Claude AIモデルの不可解な性能低下現象に光を当てました。詳細な技術的事後分析において、同社は根本原因を、Claudeの運用ハーネスと命令セットに加えられた変更から生じた意図しない結果であると特定しました。この問題は、ユーザーがClaudeの応答が以前のバージョンよりも一貫性がなく、創造性に欠け、または制約が強くなっていることに気づいたことから始まりました。これにより、Anthropicがコスト削減のために意図的にモデルの品質を低下させているのではないかという広範な憶測が飛び交いましたが、同社はこれを強く否定していました。今回、調査結果の公開により、Anthropicは何が問題だったのかについて透明性のある説明を提供しました。同社によると、モデルが入力を処理し出力を生成する方法を管理するインフラストラクチャである、基礎となるハーネスへの変更が、微妙な不整合を引き起こしました。さらに、Claudeの動作を導く動作指示の更新が、意図せずして競合する優先順位を生み出し、特定のシナリオで性能低下を招きました。しばしば秘密主義が特徴的な業界において、Anthropicがこれらの調査結果を公に共有する姿勢は新鮮です。AIモデルの品質維持の課題について透明性を示すことで、同社はユーザーの信頼を回復するだけでなく、より広範なAIコミュニティに貴重な洞察を提供しています。大規模言語モデルを維持することは、一度設定すれば終わりという作業ではありません。一貫したパフォーマンスを確保するには、絶え間ない監視、テスト、微調整が必要です。ユーザーにとっての教訓は、AIモデルの性能低下の認識は常に悪意によるものではないということです。それは、システムを改善することを意図したアップデートが、時に意図しない副作用を引き起こすという複雑な相互作用から生じる可能性があります。Anthropicの対応は、AI企業が将来このような問題にどのように対処すべきかについて、前向きな先例を築いています。
