AI Infrastructure2026-05-01
MIT Technology Review
Goodfire、LLMデバッグツール「Silico」をリリース
AIの透明性に特化したスタートアップ企業Goodfireは、開発者が大規模言語モデル(LLM)を理解し制御する方法を変革する画期的なツール「Silico」をリリースしました。Silicoは機械的解釈可能性ツールであり、研究者やエンジニアがAIモデルの「ブラックボックス」内部を覗き込み、トレーニングプロセス中に内部パラメータを調整することを可能にします。これにより、モデルの動作に対する前例のないレベルの細かい制御が実現します。
従来、LLMのトレーニングはある程度推測のゲームでした。開発者はデータを入力し、高レベルの設定を調整していましたが、モデルが特定の決定を下した理由の内部動作は不透明なままでした。Silicoは、モデルのニューラルネットワークへの窓を提供することで、これを変えます。ユーザーは特定の動作を担う特定の回路やニューロンを特定し、それらを直接微調整できます。つまり、モデルが偏った出力や誤った出力を生成している場合、開発者は正確な原因を特定し、その発生源で修正できます。
このツールは、AIの透明性と安全性における大きな飛躍を表しています。開発者が外科的な精度でモデルをデバッグできるようにすることで、Silicoは意図しない結果のリスクを低減します。また、これまで不可能と考えられていたレベルのカスタマイズも可能にします。例えば、企業は医療アドバイスではより慎重に、マーケティングコピーではより創造的になるように、基礎となるメカニズムを直接操作することでモデルを調整できます。
より広範なAIコミュニティにとって、Silicoはこれらの強力なモデルがどのように機能するかを解明するための一歩です。LLMが重要なアプリケーションにますます統合されるにつれて、Silicoのようなツールは、それらが信頼性が高く、安全で、人間の価値観に沿ったものであることを保証するために不可欠になるでしょう。Goodfireは事実上、開発者にAIの脳のための顕微鏡とメスを提供したのです。
