(画像提供:Nordvpn S.A.)個人向けセキュリティサービスを提供するNordVPNは3月3日、同社が実施した国際意識調査「ナショナル・プライバシー・テスト(National Privacy Test)」の最新データを基に、日本人のAI利用リスクに関する分析結果を公開した。
調査は、世界192ヵ国、36,677人を対象に行なわれ、日本においては「業務でのAI利用に伴う情報漏洩リスク」と「AIを悪性した詐欺への対処」という2つの課題が浮き彫りとなったという。
1つめについては、日本人回答者の92%が業務でAIツールを利用する際のリスクについて十分に把握できていなかった。
AIツールとの会話内容は、同僚間の会話と異なり、ログとして記録・分析され、将来のモデル学習に利用される可能性がある。また、顧客情報や社内戦略、個人情報をAIに共有することは、意図せずプライバシー上の脆弱性を招く恐れがある。
ただ、日本では、入力したデータがどのように保存・処理され、誰がアクセス可能なのかを理解しないまま、機密情報をAIツールへ入力しているケースが少なくなかった。
2つめについては、日本人の45%がディープフェイクや音声クローンなどのAI詐欺の手口を識別できなかった。
AI技術の進化により、単なる音声模倣にとどまらず、本人の声・顔・動作を高精度に再現し、実在する人物のような自然な動きを伴う動画生成が可能になった。NordVPNの過去の調査結果では、世界で3人に1人が過去2年間にオンライン詐欺に遭遇しており、被害に遭った人の約半数(49%)が金銭的損失を経験したと回答している。
こうした調査結果を受け、NordVPNでは、3つの対策を提案している。
1つめは、業務上の機密情報をAIツールへ入力しないこと。業務で生成AIを活用する際は、所属組織のAI利用ガイドラインなどを事前に確認し、機密情報を入力しないよう徹底する。
2つめは、家族の声に聞こえても、別の手段で本人確認を行うこと。家族で合言葉を設定しておくことや、電話以外の信頼できる手段で本人確認を行うことを推奨する。
3つめは、映像や音声を過信せず、セキュリティ対策を徹底すること。「目に見えるものが必ずしも真実とは限らない」という認識をもったうえで、新たな脅威に常に対応できるよう、セキュリティソフトを適切に活用し、常に最新版へアップデートする。
ライター