- 生成AIの業務利用で発生しやすい情報漏洩リスクの種類
- ChatGPT WebUIとAPIの違いとセキュリティ上の扱い
- 社内ガイドライン策定のステップと盛り込むべき内容
- 従業員への周知・教育の進め方
- 企業規模別の生成AIセキュリティ対策
はじめに|生成AIのセキュリティは「使うか使わないか」ではない
2023年以降、ChatGPTをはじめとする生成AIが急速に普及し、多くの企業で業務利用が始まっています。しかし、セキュリティ・情報漏洩リスクへの懸念から「社内での生成AI利用を全面禁止」という方針をとる企業も少なくありません。
ただし、全面禁止という判断は得策ではない場合がほとんどです。「禁止」にしても従業員が個人のスマートフォンや個人アカウントで使ってしまえば、かえって管理できないリスクが高まります。
重要なのは「使うか使わないか」ではなく、「どう使えば安全か」を組織として定義することです。本記事では、企業が生成AIを安全に業務活用するための社内ガイドラインの作り方を、情報漏洩リスクの理解から具体的なルール例まで解説します。
なお、生成AIの業務活用の基礎については「中小企業のAI活用完全ガイド」もあわせてご参照ください。
生成AIの業務利用で発生しうる情報漏洩リスク
生成AIを業務で使う際に発生しうるリスクは大きく4種類に分類できます。
リスク1:学習データへの取り込み
ChatGPTなどの生成AIサービスでは、ユーザーが入力した情報がサービス提供者によってモデルの改善・学習に使用される可能性があります。無料プランや一部の有料プランでは、この学習利用がデフォルトでオンになっている場合があります。
具体的なリスクシナリオとして、以下のようなケースが実際に起きています。
- 従業員が顧客情報(氏名・メールアドレス等)を含むメール文案の作成をAIに依頼した
- 社内の未公開の製品開発情報をAIに入力して資料を作成した
- 個人情報を含む業務データを要約・分析させた
リスク2:プロンプトインジェクション攻撃
悪意を持ったユーザーが、AIシステムに意図しない動作をさせるために特殊な入力(プロンプト)を使う攻撃手法です。企業がAIをカスタマーサポートや社内システムに組み込んでいる場合、外部からの不正操作によって機密情報が漏洩するリスクがあります。
リスク3:ハルシネーション(誤情報生成)による二次被害
生成AIは「もっともらしい嘘をつく」ことがあります(ハルシネーション)。事実と異なる情報を生成し、それをそのまま社外に発信したり、意思決定に使ったりすることで、信用毀損や誤った経営判断につながるリスクがあります。
リスク4:著作権・知的財産の侵害
生成AIが作成したコンテンツの著作権の扱いは法的に未整備な部分が多く、既存の著作物と類似したコンテンツが生成されるリスクもあります。また、社内の機密性の高いコードやドキュメントをAIに入力することで、知的財産が外部に漏れる可能性もあります。
ChatGPT WebUIとAPIの違い|セキュリティ視点で比較
生成AIの利用形態には主に2種類あり、セキュリティの扱いが大きく異なります。
WebUI(ブラウザ・アプリ)での利用
chat.openai.comやモバイルアプリからChatGPTを利用する方法です。手軽に使える反面、セキュリティ管理の観点から注意が必要です。
- 無料プラン:デフォルトで学習への使用がオンになっている
- ChatGPT Plus(有料個人):設定から学習利用をオフにできる
- ChatGPT Team:デフォルトで学習利用がオフ
- ChatGPT Enterprise:企業向け管理機能・監査ログ・SSO対応
企業での業務利用には、最低でもTeamプラン以上の利用が推奨されます。
API経由での利用
OpenAI APIを通じてプログラムから生成AIを利用する方法です。開発コストはかかりますが、セキュリティ管理の自由度が高まります。
- APIリクエストのデータはデフォルトで学習に使用されない(2023年3月以降)
- 社内システムに組み込むことで、アクセス制御・ログ取得が可能
- 入力データのフィルタリング・マスキングを実装できる
- 利用状況の一元管理・監査が可能
機密情報を扱う業務領域や、全社的な活用推進を考える場合は、API経由での社内ツール構築が安全性と利便性のバランスがとれた選択肢です。
Microsoft Copilot・Google Gemini等の企業向けサービス
Microsoft 365 Copilot(Word・Excel・Teams連携)やGoogle Workspace向けのGeminiは、既存のビジネスツールに組み込まれた形の生成AIで、企業データの保護ポリシーが適用されます。すでにMicrosoft 365やGoogle Workspaceを使用している企業には、これらの企業向けAIサービスが比較的セキュアな選択肢になります。
社内ガイドラインの作り方|5つのステップ
生成AIの社内ガイドラインを策定するための実践的なステップを解説します。
ステップ1:現状把握(社内のAI利用実態調査)
まず「従業員が現在どんな生成AIをどう使っているか」を把握します。アンケートや部門ヒアリングを通じて、以下の情報を収集します。
- 利用しているツール(ChatGPT・Claude・Gemini等)とプラン
- 利用用途(文書作成・翻訳・コーディング・アイデア出し等)
- 業務上どんな情報を入力しているか
- 現在感じている不便・懸念
「禁止されているから使っていない(でも実際は使っている)」という実態は珍しくありません。心理的安全性を確保した匿名アンケートで実態を正確に把握しましょう。
ステップ2:情報の分類と取り扱いルールの定義
自社が扱う情報を重要度・機密度で分類し、生成AIへの入力可否を定義します。
- 入力禁止:個人情報(顧客・従業員)、機密情報(未公開の製品・財務情報)、NDA対象の情報、パスワード・認証情報
- 要注意(上長確認後):社内の業務プロセス情報、取引先との折衝内容、社内の組織・人事情報
- 原則利用可:公開情報の整理・要約、一般的な文書作成補助、プログラミング支援(社内固有情報を含まないもの)
ステップ3:利用可能なツールの承認リスト作成
「何でも使っていい」ではなく、組織として承認するツール・プランを明示します。
- 承認済みツールとそのプランを明記(例:「ChatGPT TeamプランのみOK、無料プランは禁止」)
- 承認されていないツールの業務利用は原則禁止とする
- 新しいツールを使いたい場合の申請フローを定める
ステップ4:出力の取り扱いルールの定義
生成AIの出力を使う際のルールも明文化が必要です。
- 事実確認の義務:数値・日付・固有名詞等は一次情報源で必ず確認する
- 対外文書への使用:顧客向け・社外向け文書にAI生成コンテンツを使用する場合は上長確認を必須とする
- 著作権への配慮:AIが生成したコードや文章の著作権について、必要に応じて法務確認を行う
- AI利用の開示:AI生成コンテンツを使用した場合の社内外での開示ルールを定める
ステップ5:周知・教育と定期的な見直し
ガイドラインは「作って終わり」ではなく、全従業員への周知と定期的な見直しが不可欠です。
- 全従業員向けの説明会・研修を実施する
- イントラネット等にガイドラインを掲示し、いつでも参照できるようにする
- 生成AIの仕様変更や新サービスの登場に応じて、最低でも年1回は見直す
- 違反事例・ヒヤリハット事例を収集し、ガイドラインの改善に活かす
具体的なルール例|中小企業向けシンプル版
実際にガイドラインを作る際の参考として、中小企業向けのシンプルなルール例を示します。
基本方針
生成AIは業務効率化の有用なツールとして活用を推進します。ただし、情報漏洩・誤情報リスクを防ぐため、以下のルールを遵守してください。
利用可能なツール
- ChatGPT(チームプラン以上。個人の無料・Plusプランは業務利用禁止)
- Microsoft Copilot(Microsoft 365 Business Premium契約者のみ)
- 上記以外のツールを業務利用したい場合はIT担当者に申請すること
入力してはいけない情報
- 顧客・取引先の氏名・住所・連絡先等の個人情報
- 未公開の製品・サービス・財務情報
- 社内システムのパスワード・認証情報・APIキー
- NDA(秘密保持契約)の対象となる情報
- 従業員の個人情報(評価・給与・健康情報等)
出力を使う際のルール
- AIの出力は必ず人間がレビューし、内容の正確性を確認すること
- 顧客向けの文書・メール・提案書にAI出力をそのまま使わない
- 法律・税務・医療等の専門的判断にAI出力を使わない
技術的対策|組織規模別の推奨対応
組織の規模やIT体制に応じて、技術的なセキュリティ対策の深さは変わります。
小規模企業(従業員50名未満)
- 承認済みツール・プランの明示とルール周知
- 個人アカウントでの業務利用禁止
- 簡易なチェックリストによる利用状況把握
中規模企業(従業員50〜500名)
- 企業向けプランへの統一移行(ChatGPT Team / Enterprise等)
- 利用部門・用途ごとのアクセス管理
- 利用ログの取得と定期的なレビュー
- 年1回のセキュリティ研修への生成AI利用ルールの組み込み
大規模企業・高セキュリティ要件がある場合
- API経由での社内ツール構築(入力データのフィルタリング・マスキング機能付き)
- プライベートクラウド上でのLLM構築(Azure OpenAI・AWS Bedrock等)
- SOC2・ISO27001等の監査対象への組み込み
- CISOによるAIガバナンス体制の整備
AI導入と生成AIセキュリティの関係
生成AIのセキュリティは、より広いAI導入の文脈で考えることが重要です。セキュリティ対策だけを単独で進めるのではなく、「どのような目的でAIを使うのか」という戦略的な方針と一体で考えましょう。
AI導入プロジェクト全体の失敗パターンや、組織として気をつけるべき点については「中小企業のAI導入が失敗する5つのパターン」をあわせてお読みください。また、ChatGPTの具体的な業務活用方法については「ChatGPT業務活用術|すぐ使えるプロンプトテンプレート20選」もご参考にしてください。
AIエージェントを導入する場合は、エージェントが社内システムにアクセスする際のアクセス権限管理・ログ取得・異常検知が特に重要になります。詳しくは「AIエージェントとは?|業務自動化の新潮流を中小企業向けに解説」をご参照ください。
ROI・投資判断の観点では、セキュリティ対策コストも含めた総費用で投資効果を計算することが重要です。「AI導入の費用と効果|中小企業のROI計算と投資判断ガイド」もぜひご覧ください。
まとめ
企業の生成AI利用ガイドライン策定のポイントを整理します。
- リスクを理解する:学習データへの取り込み・ハルシネーション・著作権の3大リスクを把握する
- WebUIとAPIの違いを理解する:用途・セキュリティ要件に応じて適切な利用形態を選ぶ
- 情報を分類する:「入力禁止」「要注意」「利用可」の3段階で整理する
- ツールを承認制にする:使っていいツールとプランを明示し、個人アカウントでの業務利用を禁止する
- 出力のレビューを義務化する:AIの出力は必ず人間が確認してから使用する
- 定期的に見直す:生成AI技術の変化に合わせて、最低年1回ガイドラインを更新する
生成AIの全面禁止はリスクを管理できているように見えて、実際には「管理できない利用」を増やすだけです。ルールを作り、教育し、使い方をコントロールすることが、長期的なリスク管理と競争力維持の両立につながります。
FUNBREWでは、生成AIの安全な業務活用体制の整備や、社内AI活用ツールの開発支援を行っています。「ガイドラインを作りたいが何から始めればいいかわからない」「社内向けのセキュアなAIツールを構築したい」という方は、お気軽にご相談ください。
この記事をシェア