2025年、日本のAI政策は大きな転換点を迎えている。AI活用推進法(通称:AI新法)の成立により、企業のAI活用に対する責任とガバナンスの在り方が問われる時代が本格的に到来した。AI新法ではAI戦略本部の設置、AI基本計画の策定、事業者への情報提供・指導などが盛り込まれており、企業のAI活用に対する政府の支援と監督の枠組みが整備された。こうした潮流の中で企業はAI活用の推進において何をすべきなのか、AI新法の検討に関与したAIガバナンス協会で理事・事務局長を務める佐久間弘明氏に話を伺った。

AIの社会実装にガバナンスが不可欠
日本企業が直面するAIガバナンスの壁

AIガバナンス協会
理事・事務局長
佐久間弘明

 AIガバナンス協会は2023年12月に任意団体として発足し、2024年10月に一般社団法人化された。設立の背景には生成AIの急速な普及と、それに伴う社会的リスクへの懸念があった。

 同協会の佐久間弘明氏は「ChatGPTの登場以降、企業のAI導入が加速しました。しかし倫理や法的責任の議論が追いついていない状況でした。だからこそAIの社会実装を支えるガバナンスの枠組みが必要だと考え、AIガバナンス協会を発足しました」と説明する。

 同協会は現在110社超の会員企業を擁し、AIガバナンスの普及と実践のスタンダード形成をミッションに掲げる。活動はAI活用におけるガバナンスのガイドラインの策定、企業相互の情報共有や教育・研修、政策提言、国際連携など多岐にわたる。

「日本の企業はAIを“技術”としては導入していますが、“社会との接点”としての視点が弱い傾向があります」と佐久間氏は指摘する。例えば生成AIを使った業務効率化や顧客対応は進んでいるが、出力結果の偏りや誤情報、著作権侵害などのリスクに対する対応は後手に回っている。結果的に、より高度なAI活用に踏み切れない企業も多い。

 佐久間氏は「AIはブラックボックスになりがちです。だからこそ説明責任や透明性を担保する仕組みが必要です。技術者だけでなく経営層や他部門も全社一体となって取り組むべき課題です」と強調するように、AIガバナンスは技術だけでなく法務、コンプライアンス、サステナビリティなど多様な部署が関与する領域であり、企業内の連携体制の構築も重要な課題となる。

環境変化に対応するためのアジャイル・ガバナンスの必要性
アジャイル・ガバナンス:事前にルールまたは手続きが固定されたAIガバナンスではなく、企業・法規制・インフラ・市場・社会規範といったさまざまなガバナンスシステムにおいて、「環境・リスク分析」「ゴール設定」「システムデザイン」「運用」「評価」といったサイクルを、マルチステークホルダーで継続的かつ高速に回転させていく実践。

ガバナンスは“守り”ではない
“攻め”の経営戦略の一環だ

 佐久間氏はAIガバナンスを「企業価値を高める攻めの戦略」と位置付ける。

「ガバナンスは単なるリスク管理ではありません。信頼性のあるAI活用は顧客や社会からの評価を高め、競争力につながります。特にBtoB領域では、取引先からAIのガバナンス体制を問われるケースが増えています」(佐久間氏)

 そのためにはAI倫理指針の策定やAI委員会の設置、保護技術の活用、外部専門家との連携など、多様な対応が求められる。このとき注意したいのが、従来のルールベースのガバナンスでは適切な対応ができないことだ。

 そこでAIガバナンス協会が提唱しているのが「アジャイル・ガバナンス」という考え方だ。これは従来の硬直的なルールベースのガバナンスとは異なり、変化の激しいAI技術や社会環境に柔軟に対応するためのガバナンスの考え方だ。

 佐久間氏は「AIのリスクは日々変化します。だからこそガチガチのルールではなく、柔軟に対応できるガバナンスが必要なのです」と説明する。

 アジャイル・ガバナンスの実践には次の要素が必要となる。技術や社会の変化に応じてガバナンスの内容や方法を見直す「柔軟性」、企業や組織が自らリスクを評価し、最適な対応策を設計・実行する「自律性」、その対応策を社会に対して説明し、透明性を確保する「説明責任」、そして業界横断でベストプラクティスを共有し、共通の基盤を築く「協調性」だ。

 佐久間氏は「生成AIのような最新のAI技術は“用途の無限定性”“ユーザーの無限定性”を持つため、従来のような一律の規制では対応し切れません。例えばある企業のAI活用が1年後には全く異なるリスクを伴う可能性があるため、PDCAサイクルを回しながら継続的にガバナンスを更新していく必要があります」とアジャイル・ガバナンスの必要性を説く。

 アジャイル・ガバナンスは日本だけが提唱している概念ではなく、G7やOECDなど国際的な議論でも注目されている。AIガバナンス協会はこうした国際的な枠組みとも連携しながら、日本企業がグローバルに通用するガバナンス体制を構築できるよう支援している。

 なお同協会は政府のAI事業者ガイドラインやAI新法の策定の際に政策提言を行っており、アジャイル・ガバナンスの考え方が政策に反映されている。佐久間氏は「AI新法の策定には協会としても意見を提出し、議論に参加しました。特に企業の自主的な取り組みを尊重する姿勢や、国際連携の重要性を強調しました」と説明する。

 AIガバナンス協会ではアジャイル・ガバナンスを実践するための支援ツールとして「AIガバナンスナビ」を提供している。これは企業が自社のAI活用におけるリスク管理状況を自己診断し、他社の事例と比較できる仕組みだ。

AI新法やガイドラインの軽視は
企業にとって重大なリスクとなる

 AI新法に先立って経済産業省と総務省は「AI事業者ガイドライン」を策定した。これはAIを開発、提供、利用する事業者が遵守すべき原則を示したもので、透明性や安全性、説明責任、そして人権尊重などが柱となっている。

 佐久間氏はAI事業者ガイドラインを“企業のAI倫理のベースライン”と位置付け、社内規定や業務プロセスに組み込むことを推奨する。佐久間氏は「AIの不適切な利用は炎上や訴訟、取引停止などの事態を招きかねません。特に生成AIは誤情報や差別的表現を生むリスクがあります。企業はAIの出力に対して責任を持つ覚悟が必要です」と話し、「AI事業者ガイドラインは企業がAIをどう扱うべきかを示す実践の羅針盤です。法的拘束力はありませんが、無視すれば社会的信用を失うリスクがあります」と説明する。

 では企業はAI新法やAI事業者ガイドラインに対してどのような取り組みを実践すべきなのか。佐久間氏はAIガバナンスを「企業の持続可能な成長戦略」と位置付けて取り組みを進めることをアドバイスする。

 まずはAI活用の方針を経営レベルで明確にすること、次に技術部門と法務部門、そして監査部門等の諸部門が連携し、AIおよびデータの保護技術も活用しながらAIガバナンス体制を構築すること、さらに外部の専門家と連携することも有効だという。

 佐久間氏は「AIは企業の競争力を左右する技術です。だからこそ信頼されるAI活用が不可欠です。ガバナンスは未来への投資なのです」と強く語る。

 AI新法は施行後も定期的な見直しが予定されている。技術の進化や社会的課題に応じて、ガイドラインや制度がアップデートされる見込みだ。