生成AI活用が進む今、
企業が備えるべき新たなリスク領域とは

大企業においてゼロトラストセキュリティの考え方が浸透してきた。2〜3年かけてこれらを構築してきた企業にとっては一段落といったところだ。こうした状況の中、さまざまな企業の方と会話すると、最近必ず出てくる話題が生成AIだ。生成AIを活用するに当たって、どこまでリスクを考えればよいのか? といった悩みに直面している企業は少なくない。そこで、今回は生成AI活用におけるリスクと対処に関する考え方について説明していきたい。

AIセキュリティにおける二つの基礎

 企業はゼロトラストセキュリティを構築したことで、ある程度のリスク対策レベルに達したと考えられる。

 しかし、ここ1〜2年における生成AIの急速な発展に伴い、新たなリスクも発生している。生成AIを活用するに当たっては、そのリスクを知り、ゼロトラストセキュリティを拡張して対策できる領域と新たに対策を考えなければならない領域を整理する必要がある。

 AIのセキュリティ対策といった場合、一般的に「AI TRiSM(エーアイトリズム)」「Security for AI」というキーワードが出てくる。これらの言葉は世の中に浸透しつつあるものの、まだその考え方について漠然としている方も多いだろう。

 まずは、対策を検討する上で基礎となるこれらのキーワードの意味を解説し、実現に向けどのように考えていけばよいかを解説する。

AI TRiSMの概要

 AI TRiSMとは、「AIのTrust」「AIのRisk」「AIのSecurity Management」という三つのキーワードを掛け合わせた名称で、米国の調査会社であるGartnerが提唱したフレームワークだ。AIシステムの開発から運用までのライフサイクル全体を、信頼性、リスク、セキュリティ管理の三つの側面から包括的に扱うためのものだ。それぞれの意味について説明する。

【AI TRiSMの三つの側面】
Trust(信頼性):AIシステムが期待通りに機能し、透明性や判断の根拠が説明可能であり、倫理的に運用されることを意味する。ユーザーや社会がAIを安心して利用できるための基盤となる。
Risk(リスク):AIシステムの誤動作や誤判断、悪用、法規制違反などによって生じる潜在的な損害や問題を指す。これらのリスクを事前に特定し、評価・管理することがAIの安全な導入や運用には不可欠だ。
Security Management(セキュリティ管理):AIシステムをサイバー攻撃や不正アクセス、データ改ざんから守るための対策を意味する。AI特有の脆弱性に対応し、安全な運用を維持することが目的だ。

 AI TRiSMは、AIの安全かつ効果的な活用を支える重要な枠組みだ。企業はこれらをバランス良く実践することで、AI導入の成功と持続可能な運用を実現できる。

図1:AI TRiSMとSecurity for AIのスコープの違い

Security for AIとは

 Security for AIと似たような言葉に「AI for Security」があるが、意味は大きく異なる。AI for Securityは文字通り、「セキュリティのためのAI」だ。AI技術を活用してサイバー攻撃の検知や防御、脅威分析などセキュリティ対策を効率化・高度化することを意味する。

 一方でSecurity for AIは、「AIのためのセキュリティ」だ。AIシステム自体の安全性を確保するための技術や対策を指す。その目的は、AIモデルを騙すように設計された敵対的攻撃やデータ改ざん、AIモデルの盗用などの脅威を防ぎ、信頼性と安全な運用を維持することにある。これは、AI TRiSMのSecurity Managementの部分に該当する(図1)。

Security for AIの取り組みへの第一歩

 Security for AIを考えるに当たっては、まず当事者が「AI開発者」「AI提供者」「AI利用者」のどれに該当するのかを整理する必要がある(図2)。この三つの分類は、総務省および経済産業省が作成した「AI事業者ガイドライン」で示されている。

 日本では今後生成AIをビジネスに組み込み、サービスとして提供するAI提供者が増えてくると思われる。しかし現時点では、多くの企業はAI利用者としてAIを活用する段階に該当するであろう。

 そのため、Security for AIにおいて検討すべきことは、まずAI利用者向けのセキュリティの確保だ。AI利用者向けのセキュリティに関して特に注意しなければならないのが、生成AIサービスに個人情報・機密情報を入力してしまうことだ。こうした情報はAIに学習されてしまい、取り返しのつかない事態を招く可能性がある。このリスクに対処するためには、技術面でのシステム的対策と社内ルールや教育などの組織的対策の両面からの対応が必要だ。

具体的な取り組みの推進

 システム的対策の代表例が、ゼロトラストセキュリティのアーキテクチャの一つであるCASB※1やDLP※2の活用だ。CASBやDLPは、従業員によるクラウドサービスの利用を監視・制御する仕組みを備えており、入力してはいけない情報を検知・遮断することで情報流出などを防ぐことが可能だ。組織的対策としては、AI利用時におけるポリシーやガイドラインの策定・適用、そして利用者自身がAIのリスクを理解し、適切に活用できるようになるための教育が不可欠である。

 まずはこれらの対策を実施し、段階的に生成AIを安全に企業活動に取り込んでいくことが求められる。具体的な対策については次回以降、詳しく解説する。


※1 Cloud Access Security Broker:デバイスとクラウドサービスの間に設置し、利用状況の可視化や利用制御を実施。
※2 Data Loss Prevention:情報漏えいを防止。

〈参考〉
総務省・経済産業省「AI事業者ガイドライン (第1.1版) 概要」
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_2.pdf

図2:AIの事業活動を担う主体