AIにフォーカスした項目が初選出

IPAの情報セキュリティ10大脅威(以下「10大脅威」)は、組織と個人の2種類が発表される。脅威そのものは社会生活や環境の中に普遍的に存在するものだが、どれが実際のリスクになるか、事故や事件につながるかは同じではない。サイバー攻撃は、犯罪者やテロリストによって意図的に引き起こされるとはいえ、狙いや目的は標的によって変わる。民間企業や政府機関など組織と、一般個人で分けるのはそのためだ。

組織編の全体的な特徴は、2025年と比べて大きく変わってはいない。昨年の10項目のうち9項目までは同じであり若干の順位の入れ替えはあったものの、1位、2位の項目は「ランサム攻撃による被害」「サプライチェーンや委託先を狙った攻撃」と変化がない。

ただし3位に入ったのは初選出となる「AIの利用をめぐるサイバーリスク」だ。昨年の3位「システムの脆弱性を悪用した攻撃」は4位になっているので、AI利用の攻撃が2位と3位の間に割り込んだ形だ。ちなみに昨年の10位(不注意による情報漏洩等)がそのままランク外となった。

AIがサイバー攻撃に利用されるようになったのは最近の話ではない。2020年前後から、マルウェアフィッシングメールの自動作成にAIが使われた事例の報告はあった。もちろん防御側もウイルスや攻撃検知、脅威予測にAIを活用し始めたのもそのころだ。2026年になり、「AI」という言葉を使い脅威の注意喚起とした理由は、それだけAIが企業業務に浸透してきたからだろう。

フィジカルAI時代の実態

たとえば、以下は筆者がGeminiに作らせたグローバルでの企業AI利活用状況のデータである。データが示す数字にも表れているが、そもそもこのデータをAIに作らせたように、実際の業務や報告書作成にAIを活用することは(業務によっては)ほぼ日常と化している。

グローバルでの企業AI利活用状況(Geminiにより制作)

ただしAIはウソをつく。ウソというより、結果の事実確認が必要ということだ。今回のGeminiの出力は、国内外複数の情報ソースから導入率などを計算しているようだが、プロンプトに含めなかったので参照した資料の出典情報がない。そのため総務省の情報通信白書のデータをチェックした。白書では、企業のAI利用状況についてアンケート結果などを以下のようにまとめている。

それによると、AIの業務利用率は米中独で90%を超えている。日本は55%ほどだが、それでも半数以上がすでに業務でAIを利用している。今後の活用方針についても米中は「積極的に活用する」「領域を限定して活用する」の合計は80%以上に達し、ドイツでも70%を超えている。日本は50%ほどだが、この統計は中小企業も含まれていることを考えれば、極端に低い数字とは言えない。

脅威は情報管理・認知にかかわるもの

企業でのAI活用はメール作成、議事録作成、報告書の資料作成などがメインだ。カスタマーサポートや各種手続きにLLMによるチャットボットを導入する例も増えている。ロボットや産業機器への実装も進む。

この中で、10大脅威が示す「AIの利用をめぐるサイバーリスク」が何を指すのか。以下が考えられる。

脅威:
・情報漏洩
・情報の誤認・誤解・盲信

リスク:
・プロンプトインジェクションによる情報窃取
・詐欺ツールとしてのAI利用
  フィッシング
  中間者攻撃の高度化・自動化
  BEC
  ディープフェイク他

脅威は、データや情報、さらには人間の認知にかかわる問題だ。AIによる攻撃は、情報漏洩、情報破壊、判断や意思決定のミスにつながる。

どんなリスクが考えられる

たとえば、資料作成にAIを利用するとき、アカウントや権限の設定、学習を許可するかどうかの設定をしっかり確認していないと、AIに読ませた内部資料や個人情報がAIの学習に使われる可能性がある。

ただし主だった生成AIプラットフォームは、学習対象へのオプトアウト設定、アクセスできる情報の範囲が厳密に設定されている。無料版を利用する場合は、このような設定に注意する必要がある。企業が契約し社内で利用可能にしたAIであれば、最低限のセキュリティ設定がなされているものの、学習条件、公開範囲等の設定が適切かどうかの確認は怠らないようにしたい。また、エージェントアプリやAIシステムのアップデートも確実に行いたい。AI利用の拡大によって、関連の脆弱性や悪用事例は、日々情報が更新されている。当面、ベンダーのセキュリティパッチや脆弱性情報の注意レベルを上げる必要があるだろう。

メールや添付ファイルの中に、標的の情報やデータを抜き出すプロンプトを忍ばせて、ユーザー(標的)にクリックさせるという攻撃がある。プロンプトは難読化されていたり暗号化されており、発見は簡単ではない。メールや外部からのデータへの注意を怠らないようにしつつ、AIで難読化された攻撃コードやプロンプトを検出するソリューションなども必要なら利用する。

詐欺ツールとしての利用は、本物と見分けのつかないフィッシングメールや、自然な翻訳による詐欺文章を生成する方法がよく知られている。BEC詐欺にAIで生成した音声や画像を利用する攻撃が確認されている。上司や経営者に成りすましたAIが、メール、音声、画像を駆使して情報を盗んだり、不正送金をさせたりする。

冒頭に述べたようにAIの情報は万能ではない。さらに攻撃者が意図的に流すフェイクニュースや情報に騙されることがある。各国の大統領選挙や、2025年の衆議院議員選挙では、SNSのボットアカウントやフェイク情報による世論操作や介入が確認されている。2026年の衆議院解散選挙でも、同様な工作は国内外から行われるとみたほうがいいだろう。

AIがかかわる攻撃は散発から常態へ

AIにかかわる脅威をリスクの例とともに列挙してみたが、どれも以前から問題にされていたことばかりだ。10大脅威にAI関連の項目がランクインしたからといって、攻撃者の状況、防御側の体制が変わるものではない。

ただ、これまで散発的に起きていたAI活用の攻撃事例、あるいは研究者のPoCや脆弱性報告・注意喚起ではなく、現実に攻撃事例が確認され始めたという認識が必要だ。AIを使う、使わない、の議論はすでに終わっており、どう使うか(使わないか)の話である。

AIの社会実装が進んだことは、10大脅威の個人編の変化に現れている。個人編も全体的な傾向に大きな変化はないが、「インターネットバンキングの不正利用」が4年ぶりにランクインしている。この背景にもAIが実用フェーズに入ったことがあると考えられる。

全国銀行協会によれば、2025年はインターネットバンキングの不正利用の件数は減ってきているという。これは、金融機関のシステム改善、リスクベース認証の浸透、MFA、パスキー、FIDO認証などフィッシングや中間者攻撃に耐性のある認証方式が広がった効果と考えることができる(なお全国銀行協会の統計は4~翌3月期の年度集計)。

しかし、警察庁によれば、2025年の特殊詐欺のうち振込型による被害のおよそ6割(認知件数3560件、被害総額408億5000万円)がインターネットバンキングを利用したものだそうで、SNS投資詐欺、ロマンス詐欺等への注意喚起を行っている。このほか、証券口座の乗っ取りや不正アクセス事件は2024年、25年と大きな問題となっている。個人宅には、不審な発信元によるアカウント停止や取引停止を騙る詐欺電話が頻発している。

これら詐欺の「実行犯」はAIによる自動音声やチャットボットに置き換えられつつある。ディープフェイクによってBECが高度化したり、劇場型の詐欺が増える気配さえある。攻撃者はMFAを突破するためMITM(Man in the Middle=中間者攻撃)を強化している。AIはこれを自動化、高度化できるので、インターネットバンキングやオンライン決済では、さらなる注意が求められる。


参考:
盗難通帳、インターネット・バンキング、盗難・偽造キャッシュカードによる預金等の不正払戻し件数・金額等に関するアンケート結果および口座不正利用に関するアンケート結果について(一般社団法人全国銀行協会)
https://www.zenginkyo.or.jp/news/2025/n122401/

令和7年上半期におけるサイバー空間をめぐる脅威の情勢等について(警察庁)
https://www.npa.go.jp/publications/statistics/cybersecurity/data/R7kami/R07_kami_cyber_jyosei.pdf