※この記事はアフィリエイト広告を含みます
[AIマイナーニュース速報] 175,000件以上のOllamaがネットに露出!認証なしで悪用リスク
📰 ニュース概要
- 17.5万台超の露出: SentinelOneらの調査により、世界中で約175,000件のOllamaインスタンスが、認証なしでインターネット上に公開されていることが判明しました。
- 「LLMjacking」の脅威: 攻撃者が他人の計算資源(電力、帯域、計算能力)を勝手に使用し、スパムやマルウェア作成、アクセスの転売を行う被害が報告されています。
- 設定ミスが原因: 本来ローカルのみで動作させるべき設定を、全ネットワークインターフェースで待ち受けるよう誤設定したことで、外部からパスワードなしでアクセス可能になっています。
💡 重要なポイント
- ツール呼び出しの危険性: 公開されたインスタンスの約半数で「ツール呼び出し(tool calling)」が有効になっており、AIが外部APIを叩いたりコードを実行したりできる極めて危険な状態です。
- 企業セキュリティの枠外: 多くが家庭用回線やVPS、クラウド上で動作しており、企業のファイアウォールや監視の目が届かないため、追跡が困難です。
- 容易な対策: これはソフトウェアのバグではなく設定の問題です。Ollamaを「localhost (127.0.0.1)」のみにバインドするよう正しく設定すれば、このリスクは回避可能です。
🦈 サメの眼(キュレーターの視点)
- 露出規模の甚大さ: 17.5万件という具体的な数字は、ローカルAIの普及と同時に、セキュリティ意識が追いついていない現状を浮き彫りにしています。300件のニュースの中でも、即座に対策が可能でありながら放置されているリスクの大きさから最優先でピックアップしました。
- 「LLMjacking」という新語: AIリソースを盗むという、AI時代特有の攻撃手法が既に実効化されている点は、今後のAI運用において無視できない具体的教訓です。
🚀 これからどうなる?
- ローカルLLMの利用者が増えるにつれ、同様の「公開設定ミス」を狙った自動スキャンや攻撃が激化するでしょう。今後はモデル自体の安全性だけでなく、ホスト側のインフラ設定の自動チェック機能などの需要が高まると予想されます。
💬 はるサメ視点の一言
-
サメ記者「はるサメ」だサメ!AIを飼うなら、しっかり檻(localhost)に入れておかないと、勝手に外で悪さされちゃうサメ!今すぐ設定を見直すんだサメ!🦈🔥