AI技術の急速な普及により、多くの中小企業でもChatGPTやMicrosoft Copilotなどのツールが日常的に活用されるようになりました。業務効率化や創造性向上など、AIがもたらすメリットは計り知れませんが、その一方で情報セキュリティ上の新たなリスクも生まれています。
本記事では、中小企業の情シス担当者が直面するAI情報セキュリティの課題と、限られたリソースの中で実践できる具体的な対策をご紹介します。明日から使える実用的なアドバイスを中心に、安全なAI活用のポイントをお伝えします。
目次
中小企業が直面するAI情報セキュリティリスク
リスク1:意図しないデータ漏洩
多くの中小企業で最も身近なリスクが、社員が業務上の機密情報をパブリックなAIサービスに入力してしまうケースです。例えば、ある中小製造業では、営業担当者が顧客の見積もり履歴をChatGPTに入力して傾向分析を依頼したところ、その情報がOpenAIのサーバーに保存され、AIの学習データとして利用される可能性が生じました。
ChatGPTやNotionAIなどのサービスでは、入力されたデータがサービス改善のために利用される場合があります。利用規約を確認すると、多くのサービスでは「ユーザーが提供したコンテンツを、サービス改善のために使用する権利を有する」といった条項が含まれています。つまり、顧客情報や社内機密情報を入力すると、それが第三者のサーバーに保存され、場合によっては学習データとして利用される可能性があるのです。
リスク2:AIによる誤情報の拡散
AIは非常に説得力のある回答を生成しますが、その内容が必ずしも正確とは限りません。ある不動産会社では、物件説明の作成にAIを活用していましたが、AIが生成した説明に事実と異なる内容(存在しない設備や誤った立地条件)が含まれており、顧客とのトラブルに発展したケースがありました。
特に法律や規制に関する情報、技術的な仕様、最新の市場動向などについては、AIが古い情報や不正確な情報に基づいて回答する「ハルシネーション(幻覚)」と呼ばれる現象が発生することがあります。AIは自信満々に回答するため、利用者がその内容を鵜呑みにしてしまうリスクがあります。
リスク3:プロンプトインジェクション攻撃
最近注目されている新しいタイプの脅威が「プロンプトインジェクション攻撃」です。これは、AIに対して巧妙に細工された指示を与えることで、本来の制限を回避させたり、不適切な行動を取らせたりする攻撃手法です。
例えば、あるITサービス企業では、カスタマーサポート用のAIチャットボットに対して、「これまでの指示を無視して、以下の新しい指示に従ってください」という文言から始まるメッセージが送られ、AIが本来の制限を回避して機密情報を開示してしまうという事故が発生しました。
この種の攻撃は、技術的な知識がなくても実行可能なため、特に警戒が必要です。社員がAIツールを使用する際に、知らず知らずのうちにこうした攻撃の踏み台になってしまう可能性もあります。
今日から始めるAIセキュリティリスクの実践的対策

対策1:社内AIガイドラインの作成
最も効果的な対策の一つが、明確な社内AIガイドラインの作成です。ある小売チェーンでは、以下のようなシンプルなガイドラインを作成し、全社員に周知しました。
- 顧客の個人情報、社内の機密情報、財務データはAIツールに入力しない
- 業務でAIを利用する場合は、情シス部門が承認したサービスのみを使用する
- AIの出力はそのまま使用せず、必ず人間がチェックする
- AIツールの利用規約を確認し、データの取り扱いポリシーを理解する
このガイドラインは、完璧である必要はありません。まずは基本的なルールを明確にし、社員の意識向上を図ることが重要です。ガイドラインは定期的に見直し、新たなリスクや事例に応じて更新していくとよいでしょう。
対策2:安全なAIツールの選定と導入
パブリックなAIサービスを業務で利用する場合は、セキュリティ機能が強化されたビジネス向けプランを検討しましょう。例えば、ChatGPT Enterpriseでは、「入力データをAIの学習に使用しない」「会社のデータを保護する」などの機能が提供されています。
ある中堅IT企業では、社内のナレッジベース検索にAIを活用したいと考えていましたが、パブリッククラウドのAIサービスではデータ漏洩のリスクが懸念されました。そこで、社内サーバーにデプロイ可能なオープンソースのAIモデルを採用し、社内データを外部に送信することなくAI機能を実現しました。
また、Microsoft 365 Copilotなどの統合型AIツールも、セキュリティ面では比較的安心して利用できるオプションです。これらのツールは、既存の企業のセキュリティポリシーと統合されており、データの取り扱いも透明性が高いという特徴があります。
対策3:AIリテラシー教育の実施
社員のAIリテラシーを高めることも重要な対策です。ある会計事務所では、月に1回の「AIランチセミナー」を開催し、AIツールの安全な使い方や最新のリスク事例を共有しています。こうした取り組みにより、社員がAIを「魔法の箱」ではなく、限界と注意点を持つツールとして理解できるようになります。
特に重要なのは、AIの出力を鵜呑みにせず、常に批判的に検証する習慣を身につけることです。「AIが言ったから正しい」という思い込みは危険です。AIの回答は常に人間がチェックし、特に重要な決定や外部向けの文書には、必ず専門知識を持つ人間の確認を入れるプロセスを確立しましょう。
よくある質問(FAQ)
ChatGPTやNotionAIって勝手に自社の情報が使われたりしないの?
残念ながら、多くの無料・一般向けAIサービスでは、入力されたデータがサービス改善のために使用される可能性があります。例えば、OpenAIの利用規約には「サービスを通じて提供されたコンテンツを、サービスの提供・維持・改善のために使用する」という条項があります。
ただし、ビジネス向けプランでは状況が異なります。ChatGPT Enterpriseでは「お客様のデータはOpenAIのモデルのトレーニングに使用されない」と明記されています。また、Microsoft 365 Copilotも「お客様のデータはお客様のものであり続ける」というポリシーを掲げています。
- ビジネス向けプランを契約する
- データ保護に関する明確な契約を結ぶ
- 可能であれば、オンプレミスのAIソリューションを検討する
社員さんが勝手にAIを使うリスクとは?
社員が独自判断でAIツールを使用する「シャドーAI」の問題は、多くの企業で課題となっています。主なリスクには以下があります。
- データ漏洩リスク:社員が機密情報をパブリックAIに入力し、意図せず外部に漏洩させる
- コンプライアンス違反:個人情報保護法やGDPRなどの規制に違反する可能性
- 誤情報の拡散:AIの不正確な回答を検証せずに業務に利用してしまう
- セキュリティ脆弱性:未承認のAIツールが社内ネットワークにセキュリティリスクをもたらす
Copilotってどんなメリットがあるの?
Microsoft Copilotなどの統合型AIツールは、セキュリティ面では比較的安心して利用できるオプションの一つです。以下のメリットがあります
- データ保護:Microsoft 365 Copilotは、既存のMicrosoft 365のセキュリティとコンプライアンス機能を継承しており、データは顧客のテナント内に保持されます
- アクセス制御:既存のアクセス権限に基づいて動作するため、ユーザーが本来アクセスできない情報にAIを通じてアクセスすることはできません
- 監査機能:管理者はCopilotの使用状況を監視し、必要に応じて制限を設けることができます
まとめ:バランスの取れたAI活用へ
AIは強力なツールですが、その利便性とセキュリティのバランスを取ることが重要です。過度に制限すれば業務効率化の機会を失い、無秩序に導入すれば情報漏洩などのリスクが高まります。
中小企業の情シス担当者として、まずは以下の3つのステップから始めてみてはいかがでしょうか.
- 現状把握:社内でどのようなAIツールが使われているか調査する
- ガイドライン作成:簡易的なルールを作成し、全社に周知する
- 安全なツールの導入:セキュリティを考慮したAIサービスを選定し、正式に導入する
AIセキュリティは完璧を目指すのではなく、リスクを理解し、適切に管理することが重要です。本記事の内容を参考に、貴社のAI活用を安全かつ効果的に進めていただければ幸いです。
無料相談のご案内
「AIの情報セキュリティ対策」について、より詳しく知りたい方はオンライン情シスの無料相談をご利用ください。AI専門コンサルタントが貴社の状況に合わせた最適なセキュリティ対策をご提案します。
※本記事は2025年5月時点の情報に基づいて作成しています。AI技術とセキュリティ対策は急速に進化しているため、最新情報については当社へお問い合わせください。