All
SaaS管理
デバイス管理
セキュリティ対策
脅威・インシデント対策
IT基盤・インフラ
情シス業務・組織形成
AI / テクノロジー
プロダクト
イベントレポート
その他
ガバナンス

新着記事

もっと見る

>

>

AIガバナンス体制構築ガイド:情シスが主導するリスク管理とISO 42001対応の全手順

AIガバナンス体制構築ガイド:情シスが主導するリスク管理とISO 42001対応の全手順

AIガバナンス体制構築ガイド:情シスが主導するリスク管理とISO 42001対応の全手順

AIガバナンス体制構築ガイド:情シスが主導するリスク管理とISO 42001対応の全手順

最終更新日

AIガバナンスとは、組織がAIを安全・倫理的・効果的に活用するためのルール・体制・プロセスの総称である。本記事は、生成AIの業務利用に伴うリスク管理に直面している情報システム部門の担当者や管理者向けに解説する。シャドーAIの蔓延やハルシネーションによる損害賠償リスクが高まる現在、技術的なガードレールと適切な運用ルールの策定が求められている。

AIガバナンスの定義

企業がAIの恩恵を最大化しつつ、社会的・法的な脅威を組織が許容可能な水準に抑え込むための制御メカニズムを指す。機械学習やディープラーニングに基づくシステムは、あらかじめ決められた計算式をなぞるだけの従来型ソフトウェアとは根本的に異なる動きを見せる。

現代のAIモデルは、膨大なデータセットから確率論的にパターンを見出し、自律的に文章や画像といったコンテンツを生成する。この特性ゆえに、開発者や提供者でさえ予測しきれない結果を出力する性質を持っている。意図せず著作権で保護されたデータを出力してしまったり、特定の属性に対する社会的な偏見(バイアス)を増幅させたりするリスクが常に隣り合わせとなっている。

人間が記述した決定論的なプログラムコードに従って動作する従来のITシステムと比較して、AIは意思決定のプロセスがブラックボックス化しやすい。そのため、情報システム部門の役割は単なる新規ツールの導入支援にとどまらない。データの入力から出力結果の業務適用に至るまで、全プロセスを監視・統制する総合的な枠組みを設計する責任を負っている。

近年の技術進化は、チャットボットのような対話型システムから、AI自身が計画を立てて自律的にツールを操作する「エージェント型AI」へと移行しつつある。主体性を持ったAIが社内システムにアクセスするようになれば、統制の難易度はさらに跳ね上がる。したがって、強固な管理基盤の構築は先送りできない経営課題として位置づけられる。


こうした技術的特性を理解した上で、外部環境の変化に目を向ける必要がある。

最初の選択は IdP/IDaaS?or SMP(SaaS管理)?

SaaS利用の拡大に伴い、情報システム部門が直面するのが「どこから整備を始めるべきか」という課題。ID管理を軸に統制を強化するIdP/IDaaSか、それとも全体のSaaS可視化から着手するSMP(SaaS管理ツール)か。本資料では両者の特徴や導入ステップ、組み合わせ活用のポイントをわかりやすく解説します。

最初の選択は IdP/IDaaS?or SMP(SaaS管理)?

SaaS利用の拡大に伴い、情報システム部門が直面するのが「どこから整備を始めるべきか」という課題。ID管理を軸に統制を強化するIdP/IDaaSか、それとも全体のSaaS可視化から着手するSMP(SaaS管理ツール)か。本資料では両者の特徴や導入ステップ、組み合わせ活用のポイントをわかりやすく解説します。

なぜ今必要か

各国政府による罰則付きの法規制が急速に施行され始めている点と、AIの不適切な出力が直接的な経営上の損害に直結するインシデントが増加している点が最大の理由である。

グローバル市場におけるルールの転換点となったのが、欧州連合(EU)で発効した包括的な規制「EU AI Act(AI法)」の存在だ。この法律は、対象となるAIシステムをその影響度に応じて4つのリスクレベルに分類している。個人の無意識を操作するようなシステムは「禁止されるAI」として厳格に排除され、医療やインフラに関わる「高リスクAI」には適合性評価や人間による監督義務が課される。

特筆すべきは、このEU AI法が域外適用される点である。EU域内に物理的な拠点がなくとも、EUの市民に向けてAIを組み込んだサービスを提供する場合、日本企業であっても規制の対象となる。違反時には最大で3,500万ユーロ、あるいは全世界年間売上高の7%のいずれか高い方という巨額の制裁金が設定されており、コンプライアンス上の極めて大きな脅威となっている。

国内においても、これまで経済産業省などが主導してきたソフトロー(法的拘束力のないガイドライン)路線から転換し、2025年5月に「AI基本法」が成立した。本法を契機として内閣府のAI戦略本部を中心に国としての基本計画の策定が進んでおり、企業にはより厳格な説明責任が求められるフェーズに突入している。

法規制の強化と並行して、企業が実際に経済的損失を被る事例も発生している。カナダの大手航空会社エアカナダのケースでは、同社がウェブサイトに導入した顧客対応用のAIチャットボットが、忌引割引の適用条件について事実とは異なる誤ったポリシーを案内した。このハルシネーション(もっともらしい嘘を出力する現象)を信じてチケットを購入した顧客からの返金要求に対し、企業側は「チャットボットは独立した法人格のようなものであり、その発言に企業は責任を負えない」と主張した。しかし裁判所はこの主張を退け、企業は自社のウェブサイト上の情報に対して全責任を負うとして損害賠償を命じている。

市場調査レポートによれば、AIの運用管理や監査を支援するツールの世界市場規模は、2025年の約11億9,000万米ドルから2032年には20億4,000万米ドルに達し、年平均成長率(CAGR)は7.9%から最大25%超のペースで急拡大すると予測されている。この市場の急成長は、リスク管理への投資を怠れば市場からの退出を余儀なくされるという企業の強い危機感の裏返しでもある。

巨額の制裁金やブランドイメージの失墜といった致命的な損失を回避するためには、概念論にとどまらない立体的な防御策を構築しなければならない。

3層構造

実効性のある統制は、「ポリシー(方針)」「マネジメント(管理)」「テクノロジー(技術的統制)」の3つの階層を密接に連動させることで初めて成立する。どれか一つでも欠落すると、理念倒れに終わるか、現場の運用プロセスが破綻してしまう。

第一の階層であるポリシー層は、経営トップが発信する企業としての基本姿勢や倫理原則を指す。自社がどのような目的でAIを利用し、人権の尊重や公平性の担保に対してどのようにコミットメントするかを明文化する領域である。ここで示された透明性の高いメッセージが、後続のすべての判断基準の土台となる。

第二の階層がマネジメント層である。経営陣が掲げた抽象的なポリシーを、現場の具体的な運用ルールへと翻訳する役割を担う。社内ガイドラインの策定、従業員向けの教育プログラムの実施、そして新たなシステムを導入する際のリスク評価プロセスの構築が含まれる。AI技術の進化スピードは極めて速いため、一度決めたルールを固定化するのではなく、状況の変化に応じて継続的に規程をアップデートしていく「アジャイルガバナンス」の手法を取り入れるべきである。

第三の階層がテクノロジー層であり、情報システム部門が最も主導権を発揮すべき技術的な防御基盤となる。従業員が入力したプロンプトやデータが外部モデルの再学習に利用されないエンタープライズ版環境の提供がここに含まれる。さらに、不適切な指示や差別的な出力をシステム側で自動的に検知・ブロックする「ガードレール」機能の実装や、社内の確定したデータベースのみを参照させて回答精度を高めるRAG(検索拡張生成)技術の導入も該当する。


経営層が理念を語るだけでも、情シスがツールを制限するだけでも、組織の最適化は達成できない。これら3つの階層を連動させて機能させるためには、各部門を横断する強固な推進組織の立ち上げが必須となる。

具体的な現場の運用ルールを策定する手順は『AI利用ガイドラインの作り方』で詳しく解説しています。

最初の選択は IdP/IDaaS?or SMP(SaaS管理)?

SaaS利用の拡大に伴い、情報システム部門が直面するのが「どこから整備を始めるべきか」という課題。ID管理を軸に統制を強化するIdP/IDaaSか、それとも全体のSaaS可視化から着手するSMP(SaaS管理ツール)か。本資料では両者の特徴や導入ステップ、組み合わせ活用のポイントをわかりやすく解説します。

最初の選択は IdP/IDaaS?or SMP(SaaS管理)?

SaaS利用の拡大に伴い、情報システム部門が直面するのが「どこから整備を始めるべきか」という課題。ID管理を軸に統制を強化するIdP/IDaaSか、それとも全体のSaaS可視化から着手するSMP(SaaS管理ツール)か。本資料では両者の特徴や導入ステップ、組み合わせ活用のポイントをわかりやすく解説します。

推進体制の作り方

情報システム部門、法務・コンプライアンス部門、そして現場の事業部門が横断的に参画する「AIガバナンス委員会」を設置し、経営陣からのトップダウン体制で運用することが成功の鍵となる。

情報システム部門単独にリスク管理の責任を負わせると、セキュリティを重視するあまり過度に保守的な運用となり、業務効率化という本来の目的が阻害されやすい。逆に事業部門の主導に任せると、コンプライアンスの検証が甘くなり、著作権侵害や情報漏洩の危険性が高まる。この相反するベクトルを調和させるために、組織全体の舵取りを行うCAIO(最高AI責任者:Chief AI Officer)を任命し、最終的な意思決定プロセスを明確にする手法が推奨される。

委員会内での役割分担は明確に定義しておく。情報システム部門はセキュアなインフラの提供、アクセス制御、ログ監視を通じた技術的統制を担う。法務部門は、利用規約の審査や出力物の知的財産権のクリアランスを担当する。現場の事業部門は、実際の業務課題に基づいたユースケースの創出と、得られた費用対効果の検証を担う。人事部門を巻き込み、全社的なリテラシー教育を並行して進めるアプローチも有効である。

日本の金融機関では、この横断的アプローチによって目覚ましい成果を上げている事例が多数存在する。三菱UFJ信託銀行やみずほフィナンシャルグループをはじめとする大手金融機関では、強固なセキュリティ環境とガバナンス体制を先行して整備した。その上で、全行員に向けて専用の対話型AIを展開し、稟議書作成や英文メールの翻訳といった定型業務を代替させることで、月間数千時間から数十万時間におよぶ劇的な労働時間の削減を達成している。

これらの成功事例に共通しているのは、経営陣が利用の境界線を明確に定義し、現場に対して「この環境内であれば自由に試行錯誤してよい」という安心感を与えた点にある。現場の課題を経営にフィードバックし、ルールの微調整を繰り返す双方向のコミュニケーションが機能している証左である。

自社に合った体制が整った後は、独自のルールを言語化するために、外部の標準的な指標を参照する作業へと移行する。

具体的なアクセス制御やログ監視の手順は『生成AIの情報漏洩を防ぐ技術対策』で詳しく解説しています。

フレームワーク比較

ゼロから自社独自のルールを構築するのではなく、国際的な枠組みや政府が提供する既存のガイドラインをカスタマイズして適用する手段が最も効率的である。既存の枠組みは専門家によって網羅的にリスクが洗い出されており、検討の抜け漏れを防ぎやすい。

事業の展開地域や組織の規模に応じて、参照すべき指標は異なる。以下に、情報システム部門が把握しておくべき代表的なフレームワークの総合比較を示す。

フレームワーク名

対象地域・機関

特徴・厳格さ

情シス部門への要求レベル

経済産業省 AI事業者ガイドライン

日本国内

開発者・提供者・利用者ごとの責務を整理した国内企業の事実上の標準。法的拘束力はない。

中:リスクベースでの自主的な管理体制の構築と、適度な文書化が求められる。

NIST AI RMF

米国(グローバル標準)

Govern, Map, Measure, Manageの4つのコア機能ベースで柔軟なリスク管理手法を提示。

高:技術的評価指標の策定と、継続的な測定プロセスの綿密な運用が必要。

ISO/IEC 42001

国際規格(世界全域)

AIマネジメントシステム(AIMS)の要求事項を定義。第三者による適合性認証が可能。

高:PDCAサイクルの厳格な運用と内部監査、トップマネジメントの関与が必須。

国内のみで事業を展開する一般的な企業であれば、経済産業省が2024年に公表した「AI事業者ガイドライン」をベースラインとして社内規程を整備するのが定石となる。同ガイドラインは2025年に生成AI特有の課題への対応を拡充した改訂版が順次公表されており、実務に即した指針を提供している。一方で、将来的なグローバル展開を見据える場合や、外資系企業との取引が多い場合には、米国のNISTが定めるAI RMF(リスクマネジメントフレームワーク)への準拠を準備しておくべきである。

継続的な運用改善の枠組みとして現在最も注目を集めているのが、マネジメントシステムとしての国際規格である。

関連して『NIST CSF(サイバーセキュリティフレームワーク)』も合わせて押さえておきたい観点です。

国際規格ISO 42001

ISO/IEC 42001は、AIマネジメントシステム(AIMS)の構築・運用・継続的改善のプロセスを定めた世界初の国際規格である。技術の変化が極めて激しい領域において、一度のルール策定で終わらせず、PDCAサイクルを回し続ける仕組みを提供している。

本規格は、情報セキュリティマネジメントシステムを定めたISO 27001(ISMS)などと類似の構造を持っている。企業が自らの事業特性やリスク許容度に応じて利用方針を定め、策定したルール通りに適切に統制できているかを第三者の審査機関が認証する制度である。

情報システム部門としては、システム監査の基準が明確になるという実務上のメリットを享受できる。具体的には、システムによる自動決定プロセスに対する透明性の確保手順や、モデルの学習に利用するデータの品質管理、そして予期せぬ出力が発生した際のインシデント対応フローの文書化が要求事項に含まれる。監査証跡を残すためのログ管理基盤の整備は、情シスが主体となって推進すべき中核的なタスクとなる。

導入に向けたフェーズとしては、まず自社の現状と規格の要求事項とのギャップ分析を行い、不足しているプロセスを洗い出す。その後、前述のAIガバナンス委員会を通じて不足部分を補う体制を構築し、実際の運用記録を蓄積したうえで内部監査を実施するという手順を踏む。既存のISMS(ISO 27001)を既に取得している企業であれば、AI特有のリスク評価項目を既存の運用プロセスに統合していくアプローチを採ることで、管理部門の負荷を大幅に軽減できる。

ISO 42001の認証取得は、取引先や顧客に対して「自社はAIのリスクを適切に管理できる能力を持っている」という強力な客観的証明となり、ビジネス上の大きなアドバンテージをもたらす。

こうした公式な枠組みや認証制度を整備する一方で、現場では制度の隙間を突くような深刻な事態が水面下で進行している事実を見逃してはならない。

類似する情報セキュリティマネジメントの全体像を整理した『ISO/IEC 27001の最新基準と実務対応』もあわせて参照してください。

現場のAI利用問題

禁止事項ばかりを羅列した厳格すぎるルールは、従業員による非公式なツール利用、すなわち「シャドーAI」の横行を誘発し、かえって情報漏洩の危険性を高めてしまう。

日々の業務効率化のプレッシャーに晒されている現場部門の従業員は、会社から公式の代替手段が提供されなければ、個人のスマートフォンや無料の外部クラウドサービスを勝手に使い始める傾向がある。実際に多くの企業で、会議の議事録を要約するために未公開の財務データや顧客の個人情報が、無断でパブリックな生成AIサービスに入力されている実態が報告されている。

一般的な無料AIサービスの多くは、ユーザーが入力したプロンプトやテキストデータを、モデルの再学習に利用する仕様となっている。もし自社の機密情報がAIの学習データとして取り込まれてしまえば、他社のユーザーが似たような質問をした際に、その機密情報が第三者への回答としてそのまま出力されてしまう恐れがある。また、悪意のあるユーザーが意図的にシステムを誤作動させる「プロンプトインジェクション」攻撃によって、内部データが引き出される脅威も存在する。

この致命的な問題を回避するためには、情報システム部門が積極的に安全な環境を提供しなければならない。具体的には、入力データが学習に利用されない(オプトアウトされた)エンタープライズ版のプラットフォームを法人契約で導入し、全社員にアクセス権を付与する。MicrosoftのAzure OpenAI Serviceなどがその代表例である。

同時に、ガイドラインの内容も「〇〇の情報は入力してはならない」というネガティブな制約だけでなく、「このようなプロンプトを使えば安全に企画書を作成できる」といった具体的な成功事例や活用テンプレートをセットで提示する。現場を萎縮させない「攻め」の姿勢を取り入れ、技術的・運用的なガードレールを敷くことで、シャドーAIを自然に抑止しながら統制を利かせることができる。

さらに、自社で直接契約する単体ツールだけでなく、既存のシステムに密かに潜む機能拡張にも強い警戒が必要である。

具体的な非公式ツールの利用を可視化する手順は『シャドーAI対策』で詳しく解説しています。

SaaS管理

AI機能が新たに組み込まれた既存SaaSを利用し続ける場合、ベンダー側でのデータ取り扱いの仕様と、オプトアウト設定の可否を厳格な判断基準として審査しなければならない。

現在、多くのクラウドベンダーが自社のサービス価値を高めるために、チャットボットや文章自動生成などの機能を次々とアップデートで実装している。ここで問題となるのが、営業支援ツールや人事管理システムなど、すでに機密データが蓄積されている既存のSaaSにおいて、利用規約の改定とともに「生成AI機能のデフォルト有効化」が行われるケースである。情報システム部門が把握しない間に、SaaSベンダーが社内データを外部の大規模言語モデル(LLM)に送信し、学習用に取り込んでしまう事態は絶対に防がなければならない。

新たなSaaSの導入、あるいは既存ツールの契約更新時には、以下の判断基準を適用して利用の可否を決定する体制を整えるべきである。

判断項目

導入OKの基準

導入NGの基準

データの学習利用
(オプトアウト)

自社データがAIの学習モデルに利用されないことが規約に明記され、設定で完全にオプトアウト可能である。

サービスの利用継続と引き換えに、データの学習利用への同意が事実上強制される。

データの分離と
保管場所(リージョン)

テナントごとにデータが論理的に分離されており、AI処理が行われるサーバーの地理的場所が特定できる。

データが他社のデータと混在して処理され、海外の不明確なサーバー群に送信される。

アクセス制御と
ログ監査の可否

ユーザー単位の詳細な権限設定が可能であり、AIへの入力履歴や出力結果のログを取得・監査できる。

誰がどのようなプロンプトを入力したか事後追跡できず、運用がブラックボックス化している。

SaaSベンダーに対してセキュリティチェックシートの提出を求める際は、従来のインフラ要件に加えて「連携している外部AIプロセッサの仕様」「モデルの学習データの扱い」を必ず確認リストに追加する。CASB(Cloud Access Security Broker)等の監視ツールを活用し、許可されていないAI機能への通信を技術的に検知・遮断するアプローチも併用する。

運用を進める中で、社内から寄せられる疑問や不安に迅速に答える準備も整えておきたい。

▲ AI機能搭載SaaSの導入・利用可否の審査プロセス

よくある質問

Q:AIガバナンスとは何ですか?
A:組織がAIを安全・倫理的・効果的に活用するためのルール・体制・プロセスの総称である。ハルシネーションや情報漏洩といった特有のリスクを管理し、企業の社会的信頼を守る役割を果たす。

Q:AIの社内ガイドラインには何を盛り込むべきですか?
A:基本理念、対象とするツールの範囲、入力禁止となる機密情報の定義を明記する。さらに、出力結果を業務利用する際の人間による事実確認(Human in the Loop)の義務などを具体的に記載する。

Q:シャドーAIを防ぐための最適なアプローチは何ですか?
A:禁止事項を通達するだけでなく、データが学習に利用されない法人向けの安全なプラットフォームを会社側が迅速に提供することである。実用的な代替手段を用意することで、従業員の無断利用を自然に抑止できる。

Q:ISO 42001とISO 27001の違いは何ですか?
A:ISO 27001は情報資産全般の機密性・完全性・可用性を保護する規格である。対してISO 42001は、AI特有の透明性・バイアス・倫理的影響の制御に特化したマネジメントシステムの要件を定めており、両者は補完関係にある。

Q:AI機能付きSaaSを選定する際の注意点は何ですか?
A:自社テナント内のデータが、SaaSベンダー側のAIモデルの学習に利用されないか(オプトアウト可能か)を最も重視する。また、入力プロンプトの監査ログが取得できるかどうかも確認事項となる。

まとめ

AI技術の進化は止まることがなく、自律型エージェントの台頭などにより、企業のリスク管理手法も常にアップデートを強いられる。情報システム部門は単にツールを制限する監視役ではなく、現場の生産性向上と企業の信頼維持を両立させるナビゲーターの役割を担っている。本記事で解説した3層構造やSaaS選定の判断基準を活用し、安全なインフラ整備を推進していただきたい。

  • ✅ 経営陣や法務部門を巻き込んだ横断的な推進体制を構築した

  • ✅ 社内で利用されている非公式なAIツール(シャドーAI)の実態を調査した

  • ✅ 入力データが学習に使われない安全な法人向け環境を現場に提供した

  • ✅ AI機能が組み込まれたSaaSの利用基準(オプトアウト条件等)を明確化した

  • ✅ 技術の変化に応じた継続的な見直しを前提とするアジャイルなガイドラインを策定した

本記事の内容に誤り等がございましたら、こちらからご連絡ください。

監修

Admina Team

情シス業務に関するお役立ち情報をマネーフォワード Adminaが提供します。

SaaS・アカウント・デバイスの管理を自動化し、IT資産の可視化とセキュリティ統制を実現。

従業員の入退社対応や棚卸し作業の工数を削減し、情報システム部門の運用負荷を大幅に軽減します。

中小企業から大企業まで、情シス・管理部門・経営層のすべてに頼れるIT管理プラットフォームです。