ダークトレース、生成AIやAIエージェントのリスクに包括的に対応する新製品を開発

thumb_darktrace_01ダークトレース・ジャパン カントリーマネージャー 兼 日本営業総責任者の田井 祥雅氏(写真撮影:齋藤 公二氏)

ダークトレース・ジャパンは2月19日、記者説明会を開催し、同社が行なった調査報告書「2026年版AIサイバーセキュリティの現状」の概要を解説するとともに、企業が導入するAIの状況を監視する新製品「Darktrace / SECURE AI」を発表した。

ダークトレース・ジャパンは英DarkTraceの日本法人として2015年に設立され、過去5年で売上・顧客ベースで2桁成長を遂げている。顧客数は世界で1万社以上、日本でも240社超が採用している。

「攻撃者の最大のターゲットが企業内AIになってきた」

ダークトレース・ジャパン カントリーマネージャー 兼 日本営業総責任者の田井 祥雅氏は、新製品の提供に取り組んだ背景として「次のアタックサーフェスが企業内のAIになってきた」ことを挙げた。

「今後、攻撃者が狙う最大のターゲットが企業内AIだ。我々が行なったヒアリング調査ではグローバルで約70%の企業が、日本では58%の企業が企業内で生成AIを利用している。一方、我々が観測しているデータを見ると正式に承認されているかどうかに関係なく、生成AIを利用している企業はグローバルで91%、日本では96%に達する。この20〜40%もの差がシャドーAIだ。異常なアップロードの平均サイズは75MBで、毎月4700ページに相当する情報量となる。特に生成AIが生み出す異常なデータアップロードは月39%増というペースで増えている」(田井氏)

情報の入手のしやすさは機密性の高いデータへのアクセスにもつながる

DarkTraceでは2025年10〜11月に14カ国1540人のセキュリティリーダーを対象に調査を実施した。その調査報告書である「2026年版AIサイバーセキュリティの現状」を見ると、セキュリティリーダーの76%(日本では71%)がサードバーティ製LLMのセキュリティに懸念を抱くなど、AIが新しい脅威になっていることがわかった。

新しい効率は新たなリスクだ。即座に情報が入手できることは、アクセス権の管理が不十分な場合には機密性の高いデータに触れやすくなる。 また、AIが生成する応答は誤情報の無秩序な拡散につながりやすくなる。さらに、サードパーティが提供する機能の増加はAIの間違った使用や乱用につながる可能性を高める。そして、高い生産性を求める運用では、取り扱うデータ量も増え、結果としてデータ露出の可能性も大きくなる。こうした、データ露出、データ保護/プライバシー規制違反、AIツールの間違った使用/悪用は、「AIがもたらす主要な3つのリスクと言える。」(田井氏)

img_darktrace_01

田井氏は、AIがもたらす3大リスクとして、データ露出、データ保護/プライバシー規制違反、AIツールの間違った使用/悪用、を挙げた(写真撮影:齋藤 公二氏)

AIの適切な保護で企業の利益、評判、規制とコンプライアンスを保護

逆に、AIを適切に保護することで、企業の利益、評判、規制とコンプライアンスを保護することができる

「AIを保護するためには総合的なアプローチが必要だ。具体的には、企業内のAI使用に対して完全な可視性を持つこと。また、モデル、プロンプト、エージェント、アイデンティティがどこで動作しているかを知ること。さらに、生成AIアシスタントやAIエージェントがどのように振る舞うかを理解することが必要だ」(田井氏)

そこで新たに提供するソリューションがSECURE AIだ。ダークトレース プロダクトおよびソリューション・マーケティング担当バイスプレジデントのミッチェル・ベッチーナ(Mitchell Bezzina)氏は、SECURE AIを開発した背景には、従来の脅威検知の仕組みだけでは、AIを狙う新しいタイプの攻撃に対応することが難しくなってきたことがあるという。

「AIへの攻撃を検知するためには、攻撃タイプを知る必要がある。データはドメインごとにサイロ化されており、新しい攻撃を検知することが難しい。また、アタックサーフェスが拡大し、攻撃も多様化している。侵入されたあとも、対応と封じ込めは過去の知識に依存しており、新しい手法には限界がある。そうしたなかポイントになるのは、組織のビジネスを継続的に学習してコンテキストと動作を理解することだ。また、各ドメインのデータに基づく脅威インテリジェンスを強化し、 未知の攻撃やインサイダーリスクを検知できるようにする。さらに未知の攻撃を自律的に遮断することも必要だ」(ベッチーナ氏)

img_darktrace_02

ダークトレース プロダクトおよびソリューション・マーケティング担当バイスプレジデントのミッチェル・ベッチーナ(Mitchell Bezzina)氏。未知の攻撃を自律的に遮断することも必要と話した(写真撮影:齋藤 公二氏)

DartTraceはAIを使った振る舞い検知におけるパイオニアでもあり、10年以上の経験をもとに新たなAIによる検知や保護の仕組みを開発した。それがSECURE AIだという。

SECURE AIは、AIが企業内でどのように使用され、構築され、アクセスされ、 間違って使用される可能性があるかについて、一元的なビューをセキュリティチームに提供するソリューションだ。チームのセキュリティチームは、AIが利用されるさまざまなシーンでAIリスクから企業を守ることができる」(ベッチーナ氏)

「SECURE AI」はAIのリスクやユースケースごとに主に4つの機能を提供

SECURE AIはAIのリスクやユースケースごとに大きく4つの機能を提供する。1つめは、AI開発・運用に伴うリスクに対応する「評価」機能。2つめは、AIエージェントやプロンプト利用時の「監視」機能。3つめは、ユーザーIDやマシンID、エージェントIDなどのアイデンティティ「保護」機能。4つめは、IT部門が管理していないシャドーAIの「発見」機能。これら4機能は、機能コンポーネントとしてそれぞれ提供されており、必要に応じて組み合わせて利用できる。

1つめのAI開発・運用時の「評価」機能は、AI開発のあらゆる段階において深層的な評価を行う。AI開発時には、不透明なロジック、幅広い権限の付与、プロンプト駆動の動作の整合性がない、隠れた設定ミス、知らない間にアクセスが拡大するといったリスクが発生する。これらについて、SaaSログを通じたイベントの観察、コードアセットやインベントリへの永続的評価、AIがAPIやサービスとどう接続しているかの開示、AIセキュリティの状態管理(ポスチャ管理)などを行う。

2つめのAIエージェントやプロンプトの監視では、AIアシスタント(Copilot、ChatGPT Enterpriseなど)や、ローコード環境(Copilot Studio)、SaaSプロバイダー(MicrosoftやSalesforceなど)、開発プラットフォーム(Amazon BedrockやSageMakerなど)と連携し、一元的なビューで監視できる。プロンプトのふるまいを理解し、見逃されやすい攻撃やリスクも検知できるという。

3つめのAIアイデンティティの保護は、AIエージェントがどのIDを使用して何にアクセスしているかをリアルタイムに監視し、セキュリティやコンプライアンス違反となるアクションを防止する。

4つめのシャドーAIの発見では、IT部門が把握していないAI利用を特定し、リスクの高い動作を検知。ポリシーに基づいた制御やユーザー管理により、安全なAI利用を徹底する。

「SECURE AIにより、AIによるイノベーションは加速し、AIエコシステム全体で完全な可視性を実現できる。また、AIの誤使用やAIへの攻撃をリアルタイムに検知、監視できる」(ベッチーナ氏)

開発エンジニアにとっては、1つめの評価機能が有用だ。企業としてAIリスクに対応するためには、それだけでなく、不正なプロンプトへの対応やAIエージェントなどをIDベースで監視したり、許可されていないシャドーAIの利用を監視したりする必要がある。ベッチーナ氏は、SECURE AIは、セキュリティチームやSOC部門がAIリスクに包括的に対応できるようにするソリューションだと強調した。

ライター

齋藤 公二 (さいとう こうじ)
インサイト合同会社 代表社員 ライター&編集 コンピュータ誌、Webメディアの記者、編集者を経て、コンテンツ制作会社のインサイト合同会社を設立。エンタープライズITを中心とした記事の執筆、編集に従事する。IT業界以前は、週刊誌や月刊誌で、事件、芸能、企業・経済、政治、スポーツなどの取材活動に取り組んだ。
齋藤 公二の記事一覧を見る