コラム > 選び方

ユースケース別AIのデータ安全対策ガイド【2026年版】個人・会社・フリーランスで何が違う?

2026-03-23 公開12分選び方

はじめに: 同じAIでも使い方で対策が全く違う

AIの安全対策は「個人で趣味に使う」場合と「会社の業務で使う」場合で、やるべきことが根本的に異なる。個人利用なら学習オプトアウトの設定で十分だが、会社の業務利用では法人プランの選択、社内ガイドラインの整備、入力情報の制限まで考慮が必要だ。

AI選びの安全性テストではClaude 93.7点、ChatGPT 90.5点が上位を占めたが、これはモデル側の安全設計の評価であり、ユーザー側の対策を免除するものではない。本記事では4つのユースケースごとに、具体的な設定手順と守るべきルールを整理する。

ユースケースA: 個人利用(趣味・学習・副業)

リスクレベルは低から中。守るべきものは個人情報、クレジットカード情報、住所などだ。無料枠の利用でも問題ないが、学習オプトアウトは設定しておくべきだ。

ChatGPTの場合、OpenAIの公式ヘルプによると、無料版・Plus・Proではデフォルトで会話データがモデル改善に使用される。オプトアウト手順は以下の通り。(1)ChatGPTにログイン (2)右上のプロフィールアイコンをクリック (3)「設定」を選択 (4)「データコントロール」を開く (5)「モデルの改善のためにデータを使用する」をオフにする。これで新しい会話はモデル学習に使われなくなる。

Claudeの場合、Anthropicの公式プライバシーセンターによると、商用(API)利用ではデフォルトでユーザー入力をモデル学習に使用しない。ただし無料のコンシューマーアカウントでは、学習に使用される場合がある点に注意が必要だ。

Geminiの場合、コンシューマー版Gemini Appsでは18歳以上のアカウントではデフォルトで会話がモデル改善に使用される。オプトアウトはmyactivity.google.comでGeminiアプリのアクティビティ設定をオフにする。

全モデルに共通する鉄則として、本名、住所、電話番号、マイナンバー、クレジットカード番号は絶対にAIチャットに入力してはならない。オプトアウト設定は学習への利用を停止するだけで、入力データがサーバーに送信される事実は変わらない。

ユースケースB: 会社のPCで業務利用

リスクレベルは高。守るべきものは顧客データ、売上データ、社内戦略、取引先情報、ソースコードだ。無料版の業務利用は原則として避け、有料の法人プランまたはAPI経由の利用を推奨する。

モデル別の法人プラン設定を整理する。

ChatGPT Team/Enterpriseの場合、OpenAIの公式ドキュメントによると、法人プランではデフォルトで会話データがモデル学習に使用されない。SOC 2 Type IIおよびISO 27001:2022認証を取得済み。管理者がデータポリシーを一括設定でき、従業員ごとの個別設定は不要だ。Enterprise向けにはゼロデータリテンション(ZDR)オプションも提供されており、データがサーバーに保持されない構成が可能だ。

Claude Team/Enterpriseの場合、Anthropicの公式プライバシーセンターによると、商用プランではデフォルトでモデル学習に不使用。SOC 2 Type II、ISO 27001:2022、ISO 42001:2023(AI管理システム)認証を取得。HIPAA対応のBAA(業務提携契約)も提供しており、医療機関や保険業界での導入実績がある。

Gemini for Workspaceの場合、Googleの公式ドキュメントによると、Business Standard以上のエディションではプロンプトや出力がモデル学習に使用されない。ただしEnterprise Starterエディションではプロダクト改善に使用される可能性があり、管理者設定でオプトアウトが必要だ。2025年1月以降、Gemini AI機能がWorkspace Business Standard以上に追加費用なしで含まれるようになった。

Microsoft Copilot for M365の場合、Microsoftの法人向けデータ保護ポリシーに準拠し、テナント内のデータはモデル学習に使用されない。Microsoft 365のセキュリティ認証群(SOC 2、ISO 27001等)が適用される。

会社利用における必須チェックリスト: IT部門の承認を得ているか。有料の法人プランを契約しているか。データ処理の地域(日本/US/EU)を確認したか。社内AI利用ガイドラインが策定されているか。入力してはいけない情報の基準が全社員に周知されているか。退職者のアカウント処理手順が定められているか。これらを全て満たした上で業務利用を開始すべきだ。

ユースケースC: フリーランス・個人事業主

リスクレベルは中から高。守るべきものはクライアントの機密情報、NDA対象データ、請求情報だ。最低でも有料の個人プランを契約し、クライアント案件にはAPI経由の利用を推奨する。

具体的な対策を4つ示す。

第一に、クライアント名の仮名化。「株式会社A」「プロジェクトX」のように置き換えてからAIに入力する。社名が漏洩するリスクをゼロにできる。

第二に、金額・数値の概数化。「売上3億2,400万円」ではなく「売上約3億円」のように概数に変換してから入力する。AIに正確な数値を渡す必要がない場面は意外と多い。

第三に、NDA案件での事前確認。NDAを締結しているクライアントの案件でAIを使う場合、「本業務においてAIツールを使用する」旨を事前にクライアントに伝え、了承を得る。NDAの条項によってはAIへのデータ入力自体が契約違反になり得る。

第四に、Claude APIのゼロデータリテンション活用。Anthropicの公式ドキュメントによると、APIではゼロデータリテンション(ZDR)オプションが利用可能で、プロンプトも出力もAnthropicのサーバーに保持されない。NDA対応が最も厳格な環境では、Claude API + ZDRの組み合わせが現時点で最も安全な選択肢だ。

ユースケースD: エンジニア・開発者

リスクレベルは中から高。守るべきものはプロプライエタリコード、APIキー、環境変数、データベース構造だ。Claude Code、Cursor、GitHub Copilotの法人プラン利用を推奨する。

具体的な対策を5つ示す。

第一に、.envファイルや認証情報は絶対にAIに貼らない。APIキー、データベースの接続文字列、OAuth秘密鍵などは、たとえ一瞬でもAIに送信した時点でリスクが発生する。

第二に、GitHub Copilotの設定確認。GitHubの公式ドキュメントによると、Copilot Business/Enterprise契約ではプロンプトや提案はモデル学習に使用されず、コードスニペットのテレメトリも収集されない。個人契約(Pro)でもモデル学習には使用されないが、管理者がテレメトリ設定を一括管理できる法人プランが安全だ。

第三に、Claude Codeの活用。Anthropicの公式ドキュメントによると、法人向けのゼロデータリテンション対応のAPI組織キーを使用すれば、コードがAnthropicのサーバーに保持されない。ターミナル型のコーディングエージェントとして、機密性の高いプロジェクトでも利用しやすい設計だ。

第四に、コードレビュー依頼時の抽象化。機密性の高いビジネスロジックをレビューに出す際は、変数名やクラス名を汎用的なものに置き換え、ドメイン固有のロジックを抽象化してから入力する。

第五に、オープンソースプロジェクトでは制限を緩くできる。公開リポジトリのコードであれば、AIに貼り付けるリスクは低い。プロプライエタリかオープンソースかでルールを使い分けるのが合理的だ。

AI選びの安全性テストにおいて、Claudeが93.7点で1位となった背景には、コード入力時の情報漏洩リスクに対する設計上の配慮がある。開発者にとって安全性スコアはツール選定の重要な判断材料だ。

比較表: ユースケース別の推奨プランと月額コスト

各ユースケースにおける推奨プランと月額コストを整理する。

個人利用: ChatGPT無料版またはClaude無料版で十分。学習オプトアウト設定のみ必須。月額0円。

会社の業務利用: ChatGPT Team(1人月額25ドル/約3,750円)またはClaude Team(1人月額25ドル)を推奨。管理者設定、SOC 2認証、デフォルトの学習不使用が含まれる。

フリーランス: Claude Pro(月額20ドル/約3,000円)+ API利用(従量課金)を推奨。NDA案件ではAPI経由のZDR対応が最も安全。

エンジニア: GitHub Copilot Business(月額19ドル/約2,850円)またはClaude Code(API従量課金)を推奨。法人プランでテレメトリ不使用が保証される。

最も安価なのは個人利用の0円、最も安全なのはClaude Team/Enterprise + ZDRの組み合わせだ。コストと安全性のバランスは、守るべきデータの価値に応じて判断すべきだ。

まとめ: 「使わないリスク」もある

AIの安全対策は重要だが、安全性を理由にAI活用を避けること自体がリスクになる時代でもある。適切な対策を講じた上でAIを活用すれば、生産性の向上、業務品質の改善、コスト削減など大きなメリットが得られる。

本記事で紹介した対策は、学習オプトアウトの設定、法人プランの選択、入力情報の制限、NDA対応の4つが柱だ。自分のユースケースに合った対策を実施し、安全にAIの恩恵を享受してほしい。AI選びでは各モデルの安全性スコアとテスト詳細を公開している。ご自身のユースケースに最適なモデル選びの参考にしていただきたい。