無秩序から統治へ:エージェント型AIにおけるガバナンスギャップの解消
エージェント型AIは、エンタープライズシステム全体において自律的な行動と意思決定を可能にするという、根本的な変化をもたらします。一方で、これまでにない複雑なリスクも新たに生じます。TrendAI™のAgentic Governance Gatewayは、この新たな領域においてエージェント型AIの理解・制御・信頼を可能にし、安全かつ確信を持って活用できるよう支援します。
2025年後半、AIシステムはサイバーリスクの震源地となりました。重大な脆弱性の増加とともに、攻撃者はAIスタックのあらゆるレイヤーを標的としています。AIエコシステム全体に存在する基盤的な弱点が拡大する中、組織にはより警戒的でAIを前提とした防御アプローチが求められています。
エージェント型AIは、エンタープライズシステム全体において自律的な行動と意思決定を可能にするという、根本的な変化をもたらします。一方で、これまでにない複雑なリスクも新たに生じます。TrendAI™のAgentic Governance Gatewayは、この新たな領域においてエージェント型AIの理解・制御・信頼を可能にし、安全かつ確信を持って活用できるよう支援します。
攻撃者は、AnthropicのClaude Codeにおけるnpmリリースのパッケージングエラーを悪用し、Vidar、GhostSocks、PureLog Stealerを配布しました。本ブログでは、組織が直ちに実施すべき対策と、今後のリスクを防ぐためのベストプラクティスについて解説します。
AnthropicのClaude Codeのnpmリリースにおけるパッケージングミスにより、内部ソースコードが一時的に露出しました。本稿では、この注目を受けて攻撃者がどのように迅速に動き、既存のAI関連キャンペーンを転用してVidarおよびGhostSocksを拡散したのかを解説します。
TrendAI™ Researchは、RSAC 2026において2つの研究セッションを通じ、エージェント型AIサイバー犯罪とEVインフラのセキュリティについて検証しました。
LitellmのPyPI侵害を解説します。侵害されたバージョンがクラウド認証情報、SSHキー、Kubernetesシークレットを窃取します。影響と緊急の対処方法を確認してください。
サイバー犯罪グループTeamPCPは、これまでに公表された中でも特に高度で、複数のエコシステムにまたがるサプライチェーン攻撃を実行しました。この攻撃は開発者向けツール群に連鎖的に広がり、LiteLLMを侵害しました。その結果、AIプロキシサービスがAPIキーやクラウド認証情報を集約する特性ゆえに、上流の依存関係が侵害された場合、高い価値を持つ標的となることが明らかになりました。
AIによって生み出される新たなアタックサーフェスを探る本シリーズの第2回では、TrendAI™ Researchが「従業員のデジタルツイン」に焦点を当てます。これは従業員をAIで再現した存在であり、アイデンティティの侵害、データ流出、さらには持続的なアクセス確保といった新たな攻撃ベクトルを生み出す可能性があります。
LiteLLMを標的としたキャンペーンに続き、サイバー犯罪グループTeamPCPはTelnyxのPython SDKを悪用し、ステルス性の高いWAVベースのペイロードを用いて、Linux、macOS、Windows環境から認証情報を窃取しています。
Qilinとして知られるAgendaランサムウェアは、先進的な手法、クロスプラットフォーム型の亜種、そして他の主要な脅威グループとの連携を活用し、急速に最も活発かつ危険性の高いランサムウェア運用の一つへと成長しています。積極的な二重恐喝モデルと、重要産業にまたがって拡大する被害対象により、企業にとって深刻なリスクとなっており、プロアクティブな検知と防御が求められています。
電力網インフラや基幹OTネットワークでは、攻撃者による水平移動・内部活動が大きな脅威となります。対策として、「East‑Westトラフィック」を可視化することが重要です。