TL;DR / Key Takeaways
木槌が下される:すべてを変える裁定
連邦裁判所で木槌が鳴り響き、その音はあなたのChatGPTの履歴にしっかりと響き渡ります。ニューヨーク・タイムズ対オープンAIの著作権闘争を監督している判事が、オープンAIに約2000万件の匿名化されたChatGPTログを消費者アカウントから提出するよう命じました。オープンAIはその命令を撤回しようとしましたが、敗北し、これまでで最大のAIチャットデータの強制開示の一つが設定されました。
その2千万元のログは理論的なデータセットではありません。日常のユーザーからの実際のプロンプトと出力であり、名前や直接の識別子は削除されていますが、文脈、タイミング、内容において依然として豊かです。裁判官の命令の下、この大規模なコーパスは、高ステークスのメディアとテクノロジーの対決の発見パイプラインに流れ込みます。
ここではスケールが重要です。2000万の会話は容易に数十億のユーザーテキストのトークンを表し、行動パターン、プロンプトスタイル、そして実際にChatGPTがどのように反応したかを再構築するのに十分です。法的専門家たちはこれを重要な先例として位置付けています。著作権者がトレーニングや侵害を立証するために必要だと主張した場合、アメリカの裁判所は大量のAI使用ログを強制的に提供することに対して今や快く容認しています。
自分のチャットがプライベートなバブルの中に存在していると思っていた人にとって、この判決はその幻想を打ち砕くものです。夜遅くのブレインストーミングでの本のアイデア、法的な手紙の草稿、製品ロードマップのメモ—これらはOpenAIのサーバーに保存されると、潜在的な証拠となります。アメリカの標準的な発見ルールの下では、これらのログは裁判官が関連性があり、十分に匿名化されていると判断した場合、発見可能な資産として資格を持つことになります。
これらすべては、OpenAIとMicrosoftに対する複数の著作権訴訟を単一の連邦裁判所に統合する広範なマルチ地区訴訟(MDL)の中で展開されます。NYTのケースが中心に位置していますが、発見命令はMDL全体に適用され、AI企業がどのようにデータを保存し、生産する必要があるかを形作ります。この法廷で起こることが、今後の原告—書籍の著者からレコードレーベルまで—がどのように内部のAIチャットログを要求し、前例のない規模で入手するかを導くことになるでしょう。
OpenAIのチャットを守るための苦しい戦い
OpenAIは法廷に出廷し、たとえ簡素化されたChatGPTのログであっても共有するには危険すぎると主張しました。弁護士たちは、ユーザーのプロンプトや応答にはしばしば電話番号、健康情報、雇用者名、その他の準識別子が含まれており、単純な削除では生き残る可能性があると警告しました。2000万件の会話を渡すことは、非識別化にもかかわらず、ユーザーが再識別される可能性のあるモザイクを生み出すと彼らは言いました。
彼らは第二の防衛線として「必要性」を押し出した。OpenAIは、ニューヨーク・タイムズが主張されている著作権侵害を証明するために、生の消費者チャットを必要としないと主張し、具体的な例や合成テストで十分だと述べた。それ以上のものは、企業の主張によれば、プライベートなユーザーの行動を探るための漁探に変わってしまう。
バーバラ・モーゼス判事はその申し出を拒否し、再考の結果も再び拒否しました。彼女は既存の保護命令を指摘し、それが記録を弁護士、専門家、および裁判所に制限し、再識別の試みを禁止していることを強調しました。さらに、OpenAIが名前、メールアドレス、直接的な識別子を削除する義務を負っていることと相まって、彼女は機密性のリスクは「軽減されているが、排除されているわけではなく、許容される」と判定しました。
その理由付けは、OpenAIのプライバシーに関する主張を法的責任に変えてしまいます。公に同社は「ユーザーのプライバシーと機密を保護している」と主張していますが、裁判では自社の非特定化されたログでさえ危険にさらされるほど明らかであると主張しました。この命令は、OpenAIのマーケティングと、そのシステムが日常のチャットについて実際に保持している情報の間のギャップをさらけ出しています。
裁判官にとって、関連性は不快感よりも重要でした。ChatGPTがニューヨークタイムズの記事を再生産するかどうかをテストするためには、原告は選りすぐりのデモではなく、実世界の出力の統計的に意味のあるサンプルが必要です。2000万のログコーパスにより、専門家はモデルがほぼ逐語的なニュースコンテンツをどれくらいの頻度で出力するか、どのようなプロンプトのもとで、そしてどの期間にわたっているかを測定できます。
モーセは現代の電子証拠開示の基準を効果的に受け入れた。匿名化された大規模データセットは、主張の核心に迫る場合には正当な対象となる。彼女は残るプライバシーリスクを認めつつも、著作権原告が盲目的に訴訟を強いられることはないと主張した。ユーザーの秘密保持と代表的なAIモデルの調査との間のトレードオフにおいて、裁判所は明確に開示の側に重きを置いた。
「データ非特定化」とは何か(そして、それだけでは不十分な理由)
「非識別化」という言葉は安心感を与えますが、AIの世界では主にOpenAIが明らかな情報を取り除くことを意味します。名前、メールアドレス、アカウントID、電話番号、IPアドレス、デバイス識別子は、ログが法的発見セットに移される前に削除されるか、トークンに置き換えられます。問題となっている2000万件のChatGPTログには、依然として完全なプロンプトと応答が含まれます — ただし、これらの直接的な「識別子」はありません。
プライバシー研究者たちは、これを弱い形の匿名性と呼んでいます。なぜなら、現実の生活は赤actionツールにうまく収まらないからです。ChatGPTとのやり取りは、しばしば職場の詳細、関係のドラマ、財務の具体的な情報、健康情報が一つのスレッドにまとめられます。その豊かな物語的な文脈は、指紋となります。
再識別リスクは、それらの詳細が交差するときに発生します。ユーザーは「私の子の珍しい病気を治療するアンカレッジの唯一の小児心臓専門医」や「ボイジーの12人のフィンテックで唯一のスタッフMLエンジニアとしての私の役割」と表現するかもしれません。名前とメールアドレスを削除しても、外部のデータポイントがいくつかあれば、特定の1人に絞られるプロファイルが残ります。
いくつかのプロンプトは、ユーザーの名前を明記することなく、基本的にそのユーザーを特定してしまいます。特定のスタートアップで未発表の製品のプレスリリースを作成する人や、機密の買収に関する内部メモを貼り付ける人を考えてみてください。ストーリーを計画しているジャーナリスト、告発を作成している内部告発者、ある大学での懲戒案件を説明している学生は、すべて非常にユニークな痕跡を残します。
プライバシーの専門家は、長年にわたり、大規模なテキストコーパスが匿名性に対して特に敵対的であると警告してきました。ラタニャ・スウィーニーは、アメリカ人の87%がZIPコード、誕生日、性別だけで一意に特定できることを明らかにしました。対話ログはしばしばより豊かな特性の組み合わせを含んでいます。法学者たちは現在、「データが非特定化された」という表現は「一時的に特定が困難である」という意味に近く、「匿名的である」という意味とは異なると主張しています。
しかし、裁判所はますます、匿名化と保護命令を十分なものとして受け入れています。ニューヨーク・タイムズ事件の裁判官は、その論理に基づいてOpenAIにログの提出を強制しました。この判決の詳細については、Reutersの報道を参照してください。OpenAIがニューヨーク・タイムズ著作権事件でChatGPTログの提出を強制される裁判命令に関する報道をご覧ください。
このプライバシーの炎を燃やす著作権戦争
著作権がプライバシーではなく、技術的には「ニューヨークタイムズ対オープンAI」の中心に位置しています。タイムズは、オープンAIとマイクロソフトが大量の著作権侵害を行ったと非難し、GPTモデルが数百万篇のタイムズの記事を取り込み、ニュースの書き方を学び、その後、ユーザーに対してほぼそのままの記事を再生成したと主張しています。この訴状では、ChatGPTがタイムズの調査や特集から長い有料記事の抜粋を出力したとされる並列比較が強調されています。
タイムズにとって、その2000万件の匿名化されたログは発見の宝の山です。弁護士たちは、現実のプロンプトと出力を詳しく調査し、ChatGPTが以下のような具体例を見つけることを望んでいます: - ほぼ正確なタイムズの記事を生成する - 有料記事の内容を怪しいほど詳細に要約する - タイムズの作品を無断で出典として引用する
もし彼らが繰り返し現れるパターンを示すことができれば、OpenAIが体系的に自社のアーカイブを利用して競合製品を構築したという主張を強化することになります。
OpenAIは、公開されているテキスト、特にニュース記事の利用がフェアユースに該当すると反論しています。同社は、大規模な言語モデルのトレーニングが生のテキストを統計的な重みに変換するものであり、代替アーカイブではないと主張しています。このような変換は新たな目的、すなわち一般的な会話アシスタントの提供に役立つとしています。GoogleからMetaに至るまでのテクノロジー企業はこの論理を支持し、公開ウェブデータを用いたトレーニングが侵害と見なされる場合、現代のAIはその法的重圧によって崩壊すると警告しています。
それは明確な対立を生み出します:クリエイター対計算。ニューヨーク・タイムズは、ジャーナリストの仕事がサブスクリプションビジネスを支えており、無許可のスクレイピングが収益と編集の独立性を損なうと主張しています。一方、OpenAIやその同業者は、トレーニングデータをライセンスされたコンテンツのみに制限することは、深い懐を持つ既存企業を優遇し、オープンなウェブコーパスに依存する小規模なAIラボを窮地に追い込むと主張しています。
倫理的に、この闘争は、滑らかなChatGPTの応答の背後に隠れたトレードオフを暴露しています。高性能なモデルは、大規模でバラバラなデータセットを必要とします:ニュースルーム、ブログ、フォーラム、コードリポジトリ、ソーシャルフィード。そして、裁判所が企業にログを開示させて侵害の証明や反証を求めれば求めるほど、ユーザーは自分の「プライベート」チャットが十億ドルの著作権戦争の最前線にあることを発見します。
消費者と企業:二つのプライバシーポリシーの物語
消費者向けChatGPTと企業向けChatGPTは、まったく異なるプライバシー体制の下に存在しており、この裁判所の命令はそのギャップを明確に浮き彫りにしました。OpenAIが「消費者ログ」を引き渡すことについて言及しているとき、それは無料およびPlusプラン、さらにはほとんどのカジュアルなAPIトラフィックを意味し、厳格に管理された企業向けの導入は含まれません。これらの2000万件の匿名化されたチャットは、特注の契約ではなく、大規模に運営されるビジネスの側から来るものです。
エンタープライズ顧客は、月々20ドルのChatGPT Plusサブスクリプションとは非常に異なるものを購入します。ChatGPT Enterprise、ChatGPT Team、そしてマイクロソフトの「商用データ保護」版Copilotのような製品には明確な約束が付いています:プロンプトと出力はデフォルトではOpenAIのモデルを訓練しないこと、そしてログはテナントの内部で管理されることです。マイクロソフトは、Copilotのデータが顧客のMicrosoft 365環境に保存され、既存のエンタープライズコンプライアンスルールに従って管理されると宣伝しています。
これらの保証は、ブログ投稿ではなく契約書に存在します。企業契約では、データ処理、保持、監査権について法的文言のページに詳述されています:誰がログにアクセスでき、どの条件の下で、そしてどれだけの期間それが保持されるかが明記されています。フォーチュン500企業が「当社のデータに関するトレーニングを行わない」という契約を結ぶと、OpenAIとMicrosoftはそれを厳格な境界として扱います。なぜなら、それに違反すると契約違反の責任が生じるからであり、単なる悪評以上の問題になるのです。
ニューヨーク・タイムズの発見に関する争いは、家のもう一方に焦点を当てています。この命令は、特注の企業条項や顧客が管理するストレージによって保護されていないため、保持された消費者のChatGPTログを対象としています。弁護士が「消費者」と言うとき、彼らはOpenAIが運営し、中央でログを記録する共有のマルチテナントサービスにプロンプトを入力している何百万もの人々を指しています。
その分裂は、テクノロジーにおける最も古いクリシェを強調しています:もし製品が無料であれば、あなた自身が製品です。無料や低価格のプランは、データ、テレメトリー、そしてモデルやビジネスを改善する使用状況の洞察を通じて収益化されます。一度裁判所が介入すると、それらのログは証拠となります。
ビジネス、専門家、そして個人営業者にとって、メッセージは明確です。機密情報を一般向けのChatGPTやCopilotに入力すると、あなたはそのチャットが他の誰かの手に渡る可能性があることを示す法的命令を持つことになります—匿名化されているとはいえ、発見される可能性があります。真のプライバシーは、設定の切り替えではなく、企業契約から始まります。
あなたのデジタル足跡は、今や発見可能な証拠です。
裁判所の命令による2000万件のChatGPTログへのアクセスは、新たな法的権限を創出するというよりは、AIチャットをすでにデジタルライフを吸い上げるシステムに接続するものです。電子的発見(e-discovery)の下で、弁護士は定期的にメール、Slack、iMessage、Google Docs、サーバーログを召喚し、関連するものを求めて数百万行のテキストを精査します。今や、AIの会話も同じ証拠のバケツの中に位置しています。
複雑な訴訟の裁判官は、包括的な電子証拠を期待しています:タイムスタンプ、IP範囲、デバイスID、メッセージ内容などです。マグテレート判事がOpenAIに対して大量の匿名化されたログの提供を命じたことで、AIのチャット履歴は通常の関連性、比例性、保護命令のフィルターを通過する限り、公正な対象として認められたのです。この前例は、ひとつの著作権事件にとどまることはありません。
従業員は、ハラスメント、営業秘密、または証券詐欺に関する訴訟で仕事のメールやSlackのDMが問題になるとすでに困っています。そこにChatGPTを加えれば、未公開のロードマップの詳細を貼り付けるプロダクトマネージャー、クライアントの事実を基に議論を起草する弁護士、鑑別診断を試みる医師が登場します。これらのプロンプトは、今や発見可能な業務記録のように見えます。
個人的な使用は、この爆風半径の外側に安全に存在するわけではありません。人々は、離婚、移民問題、税金の問題、またはメンタルヘルスの課題について「プライベートな」アドバイスを得るために、定期的にChatGPTに詳細を伝えています。もしこれらの内容が後の紛争、つまり家庭裁判、雇用訴訟、刑事調査と重なる場合、弁護士はAIチャットが存在するかどうか、そしてどの会社がそれを記録しているかを尋ねるでしょう。
すべてのプロンプトを、消費者向けのChatGPT、Claude、Gemini、またはCopilotに対して、「原告の裁判展示物47」とラベリングされたPDF展示にいつか登場するかもしれないものとして扱ってください。デアイデンティフィケーションは名前やメールアドレスといった明白なラベルを取り除きますが、独自の職業タイトル、小さな町、特定の医療歴などの豊かな物語の詳細は、依然として特定の要素となります。その他の情報漏洩や召喚状と照合すると、再識別はデータ結合の作業になります。
機密性が本当に必要な人は次のことを考慮すべきです: - 消費者向けAIチャットは記録されている - 記録は訴訟中に何年でも保存される可能性がある - 裁判所は保護命令のもとで提出を強制できる
OpenAI自身の説明書であるOpenAI – ニューヨークタイムズのデータ要求への対応は、その現実を静かに強調しています。つまり、一度裁判官が「保存して提出せよ」と言えば、あなたの「プライベート」なチャットは潜在的な法廷証拠となるのです。
OpenAIの弁護: 「私たちはプライバシー侵害と戦っています」
OpenAIは現在、プライバシー重視のストーリーを強く打ち出しています。12月のブログ投稿「ニューヨーク・タイムズのデータ要求に対する私たちの対応」では、同社はタイムズが「すべてのChatGPTおよびAPIコンテンツ」の保存を「無期限」で求めていたと述べ、その要求は「非常に広範囲であり」、業界の標準やOpenAI自身の保持ポリシーとは一致していないとしています。
経営陣はこの対立をユーザーの信頼を守るためのものと位置づけています。OpenAIは、消費者向けChatGPTを「安全性と信頼性のために必要な期間」だけデータを保持するよう設計したと述べ、すべてのプロンプトと応答を永遠に凍結することは、データ最小化や削除に関する公の約束を損なうと主張しています。
同社の公のストーリーは三つの要素から成り立っています:広範性、期間、そして collateral damage(附随的損害)です。彼らは、Timesの要求が何百万もの無関係な会話を巻き込み、通常は削除するログの長期保存を強要し、どの通常の製品ワークフローでも必要としないほど多くの弁護士、業者、専門家に敏感なユーザーコンテンツをさらすことになると主張しています。
その枠組みは、原則に基づくと同時に戦略的です。タイムズを個人チャットの大規模な取得を要求する攻撃的な訴訟者として描くことで、OpenAIは自らを不本意なデータ保有者として位置づけ、望んでいないと主張するプライバシー侵害に押し込まれているとしています。そして断りもなく、タイムズの勝利がAI企業のログ管理に対して冷や水を浴びせる可能性があることを警告しています。
これまでのところ、裁判所は完全には納得していません。治安判事は約2000万件の匿名化されたChatGPTログの提出を命じ、既存の保護命令を指摘し、データを匿名化し、訴訟チームから隔離し、ユーザーの機密性は現在の電子発見ルールの下で十分に保護されていると実質的に述べました。
OpenAIの主張には依然として説得力があります。なぜなら、“非識別化”されたチャットログは無害なテレメトリーではないからです。プロンプトには医療履歴、機密作業資料、また自動削除を逃れる完全な氏名や電話番号が含まれる可能性があり、2,000万件の記録からなるコーパスは再識別攻撃やパターン分析をより強力にします。
より厳しい真実:OpenAIのビジネスモデルは、モデルを訓練しデバッグするために大量のユーザーデータを取り込むことに依存しています。そのプライバシーの方針はその必要性と対立しています。会社は、保持を最小限に抑えつつ、安全性、品質、将来の訓練のために豊富なログを保持することはできず、結果として今、タイムズが利用している証拠の宝庫を生み出してしまいます。
AIプライバシープレイブック:今すぐ自分を守る方法
消費者向けのAIにおけるプライバシーは厳しい原則から始まります:ChatGPTを施錠された日記ではなく、混雑したカフェのように扱いましょう。あなたが入力する全ての内容は、ログやバックアップ、そしてこの判決の後には裁判所命令のデータセットに含まれる可能性があります。あなたのプロンプトは移動する可能性があると考えてください。
それは個人情報、秘密、商業機密を含まないことを意味します。シングルソーシャルセキュリティ番号、銀行口座の詳細、パスポートのスキャン、内部戦略資料、未発表のコード、または顧客リストをChatGPT FreeまたはPlusに貼り付けないでください。あなたがランダムなGmailアドレスにメールしない情報は、消費者モデルに入力しないでください。
実際に制御できるノブをロックダウンしてください。ChatGPTの設定で「全員のためにモデルを改善する」を無効にして、OpenAIがあなたのチャットを将来のモデルのトレーニングに使用しないようにします。ウェブとモバイルでは、一時的チャットをオンにして、必要な質問を行う際に会話を履歴から除外し、長期的な保存から遠ざけてください。
さらに進んで、既存のデータを定期的に削除しましょう。デバイスやブラウザからチャット履歴やダウンロードしたアーカイブを定期的にクリアしてください。ウェブ、デスクトップ、モバイルの複数のフロントエンドを使用している場合は、キャッシュされたトランスクリプトや共有端末でのログアウトセッションをそれぞれ確認してください。
AIライフをリスク層に分けましょう。低リスクの質問—映画の推薦やおもちゃのスクリプトのデバッグ—には消費者向けツールが適しています。一方、規制対象のデータ、競争戦略、実際のアイデンティティに関わる場合は、消費者チャットボットを読み取り専用として扱い、完全なデータセットではなく、匿名化されたスニペットを貼り付けてください。
機密性の高い作業には、雰囲気ではなく契約上の保護が必要です。ChatGPT Enterprise、Azure OpenAI、または「商業データ保護」を備えたMicrosoft Copilotのような企業向けのオファリングを利用しましょう。これにより約束されることは以下の通りです: - あなたのプロンプトや出力についてのトレーニングは行われない - 論理的なテナントの隔離とより厳密なアクセス制御 - 監査可能なログとデータ居住オプション
あなたの会社が無許可のAIを禁止している場合、今すぐシャドウITの実験を中止してください。セキュリティチームに対して、データ処理契約を締結し、SSOをサポートし、文書保持期間を「必要な限り」ではなく「月単位」で明確に記載するベンダーを評価するよう促してください。その約束を文書で取り交わしてください。
最終的に、裁判所がメールやSlackのようにAIのログを掘り下げ続けると仮定しましょう。今日のあなたの唯一の本当の防御はデータ最小化です:共有を減らし、積極的に匿名化し、実際に敏感な業務は、あなたのプロンプトをトレーニング材料ではなくビジネス記録として扱うシステムに留めておきましょう。
前例が設定された:これがGoogleとAnthropicにとって意味すること
裁判所は今やロードマップを持っています。もし治安判事がOpenAIに対して2000万件の匿名化された消費者ChatGPTログを開示させた場合、Google、Anthropic、Meta、またはAmazonをターゲットにするすべての原告弁護士はその命令を引用し、「同じことをしろ」と言うでしょう。保護命令が存在する限り、匿名化されたGeminiまたはClaudeのトランスクリプトは、証拠開示において狙い目になるように思えます。
将来の著作権訴訟原告はほぼ確実に以下を要求するでしょう: - ニュース、書籍、またはコードに関連する保持されたGeminiチャットログ - 専有研究やスクリプトに関するClaudeの会話 - ユーザーデータがモデルの挙動にどのように影響を与えたかを示すシステムおよびトレーニングログ
もし judge がすでにそれらのカテゴリーを OpenAI に対して「比例的」と判断している場合、競合他社はそれが基本的に禁止されていると主張するのが難しくなるでしょう。
透明性へのプレッシャーが高まっています。GoogleとAnthropicは、裁判所がログの保存期間、含まれるフィールド、そして非識別化の実際の仕組みについて証言を求めるときに、「サービスの向上」についての曖昧なプライバシー資料の背後に隠れることはもはやできません。マーケティングページと宣誓供述の間に不一致が生じると、それは訴訟リスクになります。
プライバシーポリシーは迅速に具体化されることが予想されます。企業は次のことを明確にする必要があります: - 消費者チャットの正確な保存期間(30日 vs. 数年) - ログにIPアドレス、デバイスID、または位置情報が含まれているかどうか - どの製品がトレーニングパイプラインに供給され、どれが供給されないか
その詳細はユーザーを安心させるだけでなく、裁判官が証拠として受け入れることにどれだけ自信を持てるかを決定づけるでしょう。
法的リスクは建築にも影響を与えます。もし全てのクラウドに保存されたプロンプトが法廷に引きずり出される可能性があるのなら、オンデバイスやプライバシーを保護するAIは単なるマーケティング機能ではなく、負債の防御策のように見えてきます。Appleのオンデバイスモデル、Microsoftの「あなたのデータはテナント内に留まります」というCopilotの提案、そしてローカルで実行するオープンウェイトモデルは新たな重要性を帯びます。
ライバルたちは、OpenAIがこの戦いをどのように位置づけるかを注視している。OpenAIの投稿OpenAI – ニューヨークタイムズのユーザープライバシー侵害に立ち向かうにおいて、同社は広範な開示を単なる企業負担ではなく、ユーザープライバシーへの脅威として捉えている。この物語が裁判官や規制当局に響けば、GoogleやAnthropicも似たような主張を採用するかもしれない—その一方で、次回に備えて法廷で押収されるデータを減らすために静かにシステムを再設計するだろう。
AIの未来はあなたが思っているよりもプライベートではない
プライベートAIチャットは、最初の「送信」ボタンと、2000万件のChatGPTログを要求するこの裁判所の命令の間で静かに死んだ。ブラウザの中にあった個人的なノートパッドのように見えていたものが、今では裁判官や規制当局、対立する弁護士が明るみに引き出すことができる検索可能なアーカイブのように振る舞っている。一対一のAIとの儚い会話の幻想は消え去った。
裁判所はすでにメール、Slack、SMSを発見可能な証拠として扱っています; AIの会話もそのカテゴリーに加わりました。ニューヨーク・タイムズ対OpenAIの判決は、ログが「識別不可能」であり、保護命令で覆われている限り、規模は障害にならないことを示しています。今日の2,000万件のチャットは、明日には複数のプラットフォームで数億件に達する可能性があります。
法制度はようやくAIのデータ排出に追いつきつつあり、その方向性は明確です:より厳しい監視、より少ないプライバシー、特に無料または低コストの消費者ツールに対してです。裁判官は、プロンプトや出力が企業秘密、健康の詳細、関係のドラマ、クリエイティブな作業の進行状況を明らかにする可能性があることを理解しています。この関連性が確立されると、発見ルールがその後を担います。
コンシューマー向けサービスは、影響を受ける範囲に位置しています。無料のChatGPT、ChatGPT Plus、Google Gemini、および「Googleでサインイン」のAIツールのほとんどは、データ保持、テレメトリー、そしてしばしばモデルのトレーニングに依存しています。ChatGPT EnterpriseやMicrosoft Copilotなどのエンタープライズ向けサービスは、「トレーニングなし」の保証がある理由は、ビジネスが通常のユーザーには得られなかった契約上のファイアウォールを要求したからです。
今後10年間、主要な対立が一層明確になります。モデルはより多くのデータを求め、ユーザーはより多くのプライバシーを求め、著作権者はより多くの管理を求めています。兆単位のトークンで最先端のモデルをトレーニングすることは、プライバシー法、営業秘密法、著作権法と直接対立します。新しい規制や訴訟があるたびに、AI企業がどのようにあなたの言葉を収集、保存、再利用するかに関する許容される境界が再定義されます。
ユーザーは今すぐマインドセットの転換が必要です。あらゆる消費者向けAIチャットが記録され、数年間保持され、裁判所の命令の下に第三者に渡される可能性があると仮定してください。入力内容を積極的に管理し、可能な限りチャット履歴を無効にし、明確な「トレーニングなし」の条件がある製品を選び、機密性の高い作業は企業用またはオフラインツールに分けて使用してください。AIをメールのように扱いましょう:強力で永続的であり、最悪の日の裁判のようにプライベートです。
よくある質問
裁判所は私の個人的なChatGPTの会話を確認できますか?
裁判所は2000万件の*匿名化された*ログを命じました。名前のような直接の識別子は削除されていますが、専門家は会話の内容に基づく再識別が可能であるため、残存するプライバシーリスクがあると警告しています。
この裁判所の命令は、ChatGPT Enterpriseユーザーに影響を与えますか?
いいえ。この注文は特に消費者向けのChatGPTとAPIの使用を対象としています。OpenAIの方針は、ビジネスや企業の顧客データをトレーニングに使用しないことであり、より強固な契約上のプライバシー保護があります。
ChatGPTでプライバシーを守るにはどうすればよいですか?
敏感な個人情報やビジネス情報の入力を避け、「一時チャット」機能を利用し、定期的にデータ制御設定を確認してください。敏感な作業には、データプライバシー保証のあるエンタープライズグレードのAIツールを使用してください。
なぜ裁判所はこれらのOpenAIのログを要求したのでしょうか?
ログは、The New York TimesのOpenAIに対する著作権訴訟において重要な証拠と見なされています。タイムズは、自社のコンテンツが無断でChatGPTの出力を訓練し生成するために使用されたことを証明しようとしています。