OpenAIの衝撃的な秘密

トップの研究者たちがOpenAIから離れており、同社が自らの厳しい研究を隠していると主張しています。彼らは、利益を真実よりも優先する企業の仕組みを暴露しています。

Stork.AI
Hero image for: OpenAIの衝撃的な秘密
💡

TL;DR / Key Takeaways

トップの研究者たちがOpenAIから離れており、同社が自らの厳しい研究を隠していると主張しています。彼らは、利益を真実よりも優先する企業の仕組みを暴露しています。

AIの炭鉱におけるカナリア

AI業界に衝撃が走った。複数の研究者が、生成AIの80億ドルの看板企業であるOpenAIを静かに離れたとの知らせが広まったのだ。これは、人気のあるスタートアップでの通常の人事異動ではなく、テクノロジー業界で最も coveted(手に入れたい)雇用主の一つからの協調的な離脱だった。ここでは、シニアスタッフが通常、六桁の高額な年収を得るだけでなく、兆ドルの野望に向かって突き進む企業の株式も持っている。

このような離脱は警報を引き起こします。なぜなら、人々は通常、マイナーな意見の相違でそのような金銭や名声を手放すことはほとんどないからです。研究者が倫理的または誠実性の懸念から離れると言うと、それはより深い対立を示しています。つまり、AIのリスクに関する内部データが企業の成長の物語や投資家に対する法的義務と衝突するポイントです。

嵐の中心には、OpenAIの経済研究チームのメンバーである経済学者トム・カニンガムがいます。内部で共有された別れのメッセージにおいて、カニンガムはグループが「本当の研究から逸脱しつつある」と警告し、企業の「プロパガンダ部門」へと流れ込んでいると報じられています。これはWiredとFuturismによって伝えられています。

その言葉は神経に触れました。なぜなら、それはMicrosoftの130億ドルによって支えられる公益的な研究所というOpenAIの慎重に築かれたイメージに逆らっているからです。カニンガムの批判は、内部の調査がAIが雇用に悪影響を及ぼしたり、格差を拡大させたりすることを示した際に、その方針が「公開して議論する」から「情報を操作して抑える」へと変わったことを示唆しています。

一見すると個人的な物語のように見えるものが、透明性と信頼の危機へと急速に発展しました。OpenAIが雇用喪失を軽視し、混乱を「一時的または管理可能」と表現し、規制や反発を招く可能性のある研究の公表を避けたという主張は、率直な疑問を投げかけます:AI政策を形成する科学の背後には誰の利益があるのでしょうか?

すでに不透明なトレーニングデータ、クローズドモデル、安全対策に対する批判が高まっている業界において、これらの辞任はAI業界のカナリアとして機能しています。旗艦ラボの内部者が自らの研究パイプラインの integrity をもはや信頼できないのであれば、その影響は一社の人事記録をはるかに超えて広がります。

「AIプロパガンダ腕」?

イラスト: 「AIプロパガンダ部門」?
イラスト: 「AIプロパガンダ部門」?

OpenAIの経済グループ内からの非難は、単なる職場の対立を超えて深刻です。Wiredが報じた別れのメッセージの中で、エコノミストのトム・カニンガムは同僚に対して、経済研究チームが「実際の研究から逸脱している」と警告し、代わりに会社の「宣伝部門」のように振る舞っていると述べました。まだ準学術的な雰囲気を保つラボにとっては、これは科学的信頼性への直接的な打撃として響きます。

Wiredが引用し、Futurismが要約した4つの情報筋によると、OpenAIは経済的な発見が公にされることに対してますます選択的になっている。ChatGPTやGPT-4のようなツールによる生産性向上を強調した内部の研究は表に出るが、仕事を失った労働者や停滞する賃金を示す研究は停滞しているという。結果として、AIが純粋な成長エンジンであるというキュレーションされた物語が展開され、その副作用が取り除かれている。

その情報源は、OpenAIが現在、経済的な成果を政策の視点から定期的にフィルタリングしていると主張しています:この論文は規制を招いたり、公共の反発を引き起こしたり、企業の採用を遅らせたりするのでしょうか?もし答えが「はい」であれば、出版の可能性は低くなります。一つの説明では、否定的な労働市場の結果が「一時的な」混乱や「管理可能な」混乱として再定義されるパターンが示され、これはピアレビューされたジャーナルよりも投資家向けの資料に似た言葉遣いです。

その変化は、本来は科学的な単位であるべきものを企業の広報部門に近いものに変えてしまいます。自動化、不平等、部門間のショックに関する仮説を検証するのではなく、チームはますます事前に決められたナラティブを支持するようになります:AIはGDPを押し上げ、労働者を助け、主に新しい雇用を生み出します。内部の経済学者がポジティブな面を強調し、ネガティブな面を隠すようにプレッシャーを感じると、「研究」は調査ではなく擁護の道具になってしまいます。

OpenAIのリーダーシップ自体もその方針転換を認めているようです。Wiredに引用されたメモの中で、最高戦略責任者のジェイソン・クウォンは、会社は「難しいテーマ」について発表するだけでなく、「解決策を構築すべきだ」と主張し、OpenAIは「単なる研究機関ではなく、世界の中での行動者でもある」と強調しました。この枠組みは、AIの展開における「主要な行動者」としての会社の役割を守るために研究を進める正当性を強調しています。

辞任、内部メモ、および非公式の証言を総合すると、明確な一貫した線が浮かび上がります。OpenAIは、技術そのものを形作るのと同様に、AIの経済的ストーリーを積極的に形成したいと考えているのです。

オープンリサーチから閉ざされた扉へ

OpenAIは2015年に非営利団体として始まり、最も強力なシステムをオープンソースにし、「全人類に利益をもたらす」ことを約束しました。共同創設者たちは、研究を自由に公開し、コードをリリースし、高度なAIに対する権力が集中することを避けることについて語っていました。それから10年も経たないうちに、この組織は独自のモデル GPT-4 やクローズドAPIを中心に構築された厳格に管理された利益上限のある巨人として運営され、マイクロソフトは約130億ドルを投資し、GitHubリポジトリの代わりに独占アクセス契約を結ぶようになりました。

その変化は単にお金の問題ではなく、誰が質問をし、どのような答えが安全に日の目を見ることができるかという問題です。研究者たちは、重要なリスク—大規模な人員移動、劣悪な労働条件、規制の引き金—を浮き彫りにする仕事が、好意的な生産性に関する事例研究よりも高い摩擦に直面するメッセージの規律文化が高まっていると説明しています。Wiredの報道「OpenAIのスタッフが辞職、会社の経済研究がAI擁護へと漂流していると主張」では、内部の異議申し立て者が、OpenAIの「オープン」な部分がNDAやPRの審査によって次第に後退していくのを目撃した様子が記録されています。

最高戦略責任者のジェイソン・クォンからの内部メモは、新たな姿勢を明確にしました。クォンは、OpenAIが「ソリューションを構築し」、単なる不快な研究成果を発表する研究機関ではなく、「世界の主要なプレーヤー」として行動すべきだと主張しました。OpenAIは「単なる研究機関ではなく、世界の中でのアクターでもある」という彼の言葉は、戦略が学術研究の上流に位置するというシフトを示しました。

経済研究グループの内部では、その枠組みは指示のように受け取られた。もしOpenAIが「主要なプレーヤー」であるなら、オートメーション、賃金抑制、地域の雇用喪失に関するすべての論文は、規制を招いたり採用を遅らせる可能性のある政治的行為として二重の意味を持つ。研究者たちは明確なインセンティブが存在すると述べている: - 生産性の向上を強調する - 混乱を「一時的」または「管理可能」と再定義する - 成長の物語を複雑にする作業を埋め込むか遅らせる

政策研究者マイルズ・ブランデージは、早期に離職した際、重要なトピックについての論文を発表することが「難しくなった」と述べました。彼のコメントは、公開可能な内容やそのフレーミングを巡る対立の後に辞めた少なくとも2人の経済研究者の証言と一致しています。OpenAIは今や、客観的な探求を追求するラボというよりも、研究が企業の商業的および地政学的な野望を進める場合にのみ存続するテックプラットフォームのように見えています。

安全に関する異議のパターン

OpenAIの経済研究グループからの一件の辞任は、一時的な出来事に見えるかもしれません。しかし、安全性を重視した辞任の増加リストと並べて見ると、それはパターンのように見え始めます。強力なモデルの欠点をストレステストするために雇われた人々が次々と辞めていき、その多くが自分の仕事がもはや会社の悪いニュースへの興味に合わなくなったと不満を訴えています。

今年の初め、OpenAIはその注目を集めていたSuperalignmentチームを静かに解散させました。このチームは、かつてサム・アルトマンによって人工一般知能を安全に導くための会社のムーンショットとして位置づけられていました。イリヤ・サツケヴァーとヤン・ライケが共同リーダーを務めるこのチームは、「超人間的」AIのアラインメントを4年以内に解決することを目指し、OpenAIのコンピュートの20パーセントの支援を受けていました。しかし、2024年中頃までに、両リーダーは退任し、チームは解散し、その任務はより製品に近いグループに散らばってしまいました。

元アライメント研究者のウィリアム・ソーザーズは、安全システムおよびレッドチーミングに関わった後、率直な意見を述べました。彼は、OpenAIのリーダーシップが一貫して「魅力的な製品」を基盤となる安全作業よりも優先し、目に見える機能を提供したチームを評価する一方で、長期的な研究には影響力や資源を与えなかったと語りました。彼の批判は、レイケによる「成長が優先され、安全が後回しにされた」という公の不満とも重なります。

トム・カニンガムが経済研究を「プロパガンダの一部」と呼んだことと合わせて考えると、これらの退職は体系的な緊張を示しており、組織図の一隅での孤立した衝突ではありません。以下の分野で働く人々がいます: - 長期的な調整 - 社会的および経済的影響 - ガバナンスと政策

立ち上げタイムラインと収益目標に対する同様の重力の引力を説明します。

スーパーアライメントの解散は特に重要です。なぜなら、OpenAIがそれを存在リスクを真剣に考えている証拠として利用したからです。フラッグシップの安全チームが立ち上げから2年も経たずに消えてしまう一方で、GPT-4.1、GPT-4o、そして新しいマルチモーダル機能が絶え間なくリリースされる中で、社内のメッセージは明確になります。それは、安全性がコストセンターであり、成長の原動力ではないということです。

これが、退職者たちから明らかになった「厳しい秘密」です。OpenAIは依然としてAGIの安全性について話していますが、「スローダウン」と言うために雇われた人々は、自分たちの本当の仕事は会社を加速させる手助けであることを次々に発見しています。

救命ボートが不足したタイタニック

イラスト:十分な救命ボートのないタイタニック
イラスト:十分な救命ボートのないタイタニック

最近、元OpenAIの安全研究者が、会社の野心に見合う大きなメタファーを持ち出しました:タイタニック。社内の会話では、OpenAIを「沈まない」人工一般知能の船を建造するために競争していると表現し、輝かしい技術の驚異が全速力で進んでいると述べました。彼らが警告したのは、指導者たちが救命艇よりもエンジンに遥かに焦点を当てているという問題です。

このアナロジーでは、AGIは巨大で豪華、そして人類の進歩の未来として大々的に宣伝されている船に例えられます。救命ボートは、調整研究、悪用防止、レッドチームシステム、ユーザー保護、そしてモデルが誤った方向に進んだときの実世界での監視といった目立たない部分です。批評家たちは、OpenAIが船体と推進に数十億を投じる一方で、これらの安全対策をオプションのデッキ家具のように扱っていると指摘しています。

元研究者のスティーブン・アドラーは、OpenAIのアプローチを「リスキー」と表現し、有害なユーザー結果への注意不足を批判しました。アドラーは、モデルが複雑で現実的な状況下でどのように振る舞うかを研究しており、単一のプロンプトが自己傷害コンテンツやターゲットを絞ったハラスメント、信憑性のある金融詐欺を引き出す可能性があることを指摘しています。彼の懸念は、リーダーシップが害を体系的に追跡し削減することよりも、ヘッドラインの機能や製品の成長を優先していることです。

アドラーと他の安全スタッフは、赤信号がよく「今出荷し、後で修正する」または「問題を製品リスクではなくPRの問題として再定義する」という馴染みのある対応に直面する文化を描写しています。内部の批評家たちは、GPT-4、GPT-4o、そして数日内に何百万ものユーザーに届いた新しいマルチモーダル機能などのローンチサイクルを指摘し、ローンチ後の安全評価が遅れていることを指摘しています。その結果は、慎重な航行というよりも、未踏の氷原を駆け抜けるスピードランのように見えます。

タキシンのメタファーとアドラーの批評を合わせると、自己の神話に捕らわれつつある企業の姿が浮かび上がります。OpenAIは、自らをAIの「リーディングカンパニー」としてマーケティングしており、不可欠で避けられない存在として位置づけています。これにより、ペースを落とすことはほぼ異端的に感じられます。内部から、ライフボートが欠如しているか、半ばしか固定されていないと警告されるとき、彼らは特定の機能を疑問視しているだけでなく、前進する勢いを安全とみなす世界観に対して挑戦しているのです。

人間的対比:根本的な透明性

OpenAIの秘密主義の問題は、静かに本音を口にするライバルのAnthropicと対比すると、さらに際立って見えます。OpenAIが仕事の喪失や規制リスクに関する内部の調査結果を隠蔽したとされる一方で、Anthropicの幹部はAIが大量のホワイトカラーの仕事を自動化し、既存のキャリア階層を不安定にする可能性について公に予測しています。

AnthropicのCEO ダリオ・アモデイは、インタビューで「大部分の」認知的、事務的、専門的な業務が今世紀中に自動化される可能性があると繰り返し警告しています。彼は、AIシステムが今日のソフトウェアエンジニア、パラリーガル、カスタマーサポート担当者、さらには一部のマネージャーが行っている作業の多くを処理するシナリオを描いており、その影響が何百万人もの知識労働者に波及することを指摘しています。

その率直さは、中堅の会計士や若手弁護士にとっては恐ろしい響きかもしれませんが、一般市民を利害関係者として扱っています。混乱が大きく、長期的で、政治的に爆発的な影響を持つ可能性があるとオープンに述べることによって、Anthropicは以下のことについて議論を呼びかけています: - 導入のペースをどのように調整するか - どのような安全基準や整合性基準を求めるか - 大規模な移転が始まる前にどのような社会的保護を築くべきか

それと対照的なのは、OpenAIの元経済学者トム・カニンガムが、同社が経済研究グループを「プロパガンダ部門」に変え、規制や反発を引き起こす可能性のある研究の公表を避けていると非難したことです。Wiredの報道は、OpenAIの研究者が辞職、会社が真実を隠していると言うという内容で、同社が自らの発見の鋭い部分を慎重に滑らかにしている様子を描写しています。

政策立案者はそのギャップに気づく。一つのラボは実質的に「これがオフィスワークの大部分を消し去るかもしれない。その理由と対処法はこちらです」と言う。もう一方は生産性に関する主張と控えめなブログ投稿に依存する。職の喪失についての率直なAnthropicの引用は、OpenAIの不明瞭さを慎重さよりも自己利益のためのメッセージ管理のように見せる。

「ブループリント」は解決策か、それとも煙幕か?

OpenAIによる経済的ホワイトウォッシングへの反論は、政策文書の形で登場します。5月に同社は「AI at work: OpenAIの労働力ブループリント」という40ページ以上の文書を公開しました。これは研究概要と企業の宣言が混ざったような内容です。文書では、AIが「時間をかけて仕事を再形成する」方法と、従業員がその過程で圧倒されないようにOpenAIが行っていることについて説明されています。

その提案の中心には、OpenAIアカデミーがあります。この教育プラットフォームは、すでに200万人のアメリカ人と関わっていると企業は主張しています。この計画は、2030年までに1000万人のアメリカ人が「AIスキルを向上させる」ことを約束しており、OpenAIツールで訓練された候補者を雇う際に雇用主に「自信」を与えることを目的とした認定資格を提供します。別のOpenAI求人プラットフォームは、「労働力を未来に備えさせる」ことを目指しており、人々を安定性と長期的な安全性を提供するとされるAI関連の役割に結びつけます。

紙の上では、それは自己のモデルによって加速される混乱への拡大した対応のように聞こえます。ChatGPTやGPT-4、その後継モデルは既にコピーライター、コーダー、パラリーガル、サポートエージェントの仕事の一部を自動化しており、ゴールドマン・サックスはAIによる自動化によって最大3億のフルタイムの仕事が世界的に影響を受ける可能性があると見積もっています。OpenAIの青写真は、このリスクを黙示的に認めており、急速な導入が「新卒者にとって多くのハードルを一段階早く遠ざける」可能性があると警告しています。

問題は、これらのプログラムがその脅威に対抗するための規模とスピードを満たしているのか、それとも主に物語の防具として機能しているのかということです。600万人のアメリカ人を6年間で訓練するのは印象的に聞こえますが、約1億6700万人の米国労働力や、数回の製品サイクルで数億人の仕事を奪うことができるグローバルプラットフォームと比べると、その影は薄くなります。OpenAIが目標を達成したとしても、影響を受ける労働者の大多数はそのアカデミーに触れることはないでしょう。

再訓練も人間のスピードで進む一方で、AIの展開はクラウドのスピードで進行します。企業は数ヶ月で何千もの席にGPTを活用した自動化を導入できますが、中堅社員のスキルを意味のある形で再教育するにはしばしば数年かかり、資格取得以上のサポートが求められます。このギャップは、この計画を包括的な解決策というよりも、OpenAI自身の経済学者が発表に苦労したとされる厳しい調査結果に対するPRの宥和策のように見せています。

曖昧さをもたらす兆ドルのインセンティブ

イラスト:曖昧さを生む兆候のトリリオンドルのインセンティブ
イラスト:曖昧さを生む兆候のトリリオンドルのインセンティブ

お金はOpenAIにとって気象システムのように存在しています。Microsoftから報告された130億ドルの現金とクレジットを受け取った後、同社は現在、WindowsからGitHub Copilotに至る製品を実質的に支えています。社内の予測や投資家の噂では、すでに将来の1兆ドルの評価額やIPO規模の流動性イベントについて夢見ています。

これらの数字は非常に特定のインセンティブ構造を生み出します。もしOpenAIがAIを「管理可能な」混乱を伴うネットの生産性の奇跡として位置付けることができれば、それはMicrosoftのクラウドの仮説を支持し、企業向けの売上を強化し、さらなる大規模な資金調達ラウンドを正当化します。しかし、自社の経済学者が大量の職業喪失、賃金圧縮、またはシステム的不安定性を示すデータを公表すれば、その物語とそれに付随する倍率は揺らぎ始めます。

長期失業の高い確率や地域の集中的なショックを示す内部チャートは、単なる政策問題ではなく、証券の問題でもあります。労働市場が適応するよりも速くGPT-6が大量のホワイトカラーの仕事を自動化できると信頼性のある形で主張する研究は、規制当局、労働組合、懐疑的な立法者が公聴会や反トラスト闘争で武器化するために必要な証拠の正にそのものです。その同じ証拠が、OpenAIのAPIに全てのワークフローを賭けるかどうか決定するフォーチュン500企業のリスク委員会に不安を覚えさせる可能性もあります。

そのような状況下では、中立的な分析から「プロパガンダ部門」への alleged shift は、まるで漫画の悪役の変貌のように見えるのではなく、むしろ極度のプレッシャーの下での標準的な後期ステージのスタートアップの行動に近いものとなります。資本構成や戦略的パートナーがハイパーグロースを期待するとき、あなたは安全で「拡張された」働きかけや、脇に追いやられた混乱の物語を語るチームを評価します。それとは異なるデータセットは静かに埋められるか、再構成されます。

内部の dissenters はちょうどその漂流を描写しています。Wired の情報源によれば、OpenAI は明るい生産性の向上を強調し、雇用喪失を軽視して、規制を助長したり、一般の反発を引き起こしたり、採用を遅らせたりする可能性のある研究の公開を避けているとのことです。AI と雇用に関する回帰分析のすべての負の係数が仮定上の IPO から数十億ドルを削減する可能性がある世界において、沈黙は合理的な—とはいえ非常に問題のある—ビジネス選択となります。

その視点から見ると、経済リスク研究の抑圧の主張は、孤立した倫理的失敗のようには見えず、むしろ情報コストをほとんど無視して、展開、評価、パートナーの満足度を最大化するように構造的に固定された企業の予測可能な結果のように映る。

「アンビエントな敵意の高まり」

生成的AIに対する環境的な反感が、ハリウッドの契約から教室の方針に至るまで、あらゆるところに漂っています。脚本家、イラストレーター、コーダー、そしてコールセンターの労働者たちは、AIを単なるツールではなく、自動化された解雇通知として捉えるようになり、団結して反対運動を展開しています。

その敵意はどこからともなく湧いて出るわけではなく、AIの巨人たちが物語を操作しているという感覚から直接生じています。OpenAIの研究者たちが経済的影響の研究が密かに「プロパガンダ」に変わると主張する際、それは一般の人々がプラスのグラフしか見ず、マイナスの予測は見ないという疑念が高まっていることを確認するものです。

OpenAIの経済研究の騒動のような透明性スキャンダルは、その疑念を不信に変えます。会社が職の喪失を軽視し、否定的な結果の公表を避け、混乱を「一時的または管理可能」と位置づけたとの報告は、すべての華やかな労働力の「青写真」をダメージコントロールのように感じさせます。

これは、Facebook–Cambridge Analytica時代以来高まっている広範なテクノロジーへの反発に直接繋がります。この物語のテンプレートは馴染み深く、強い印象を残します:秘密主義の過剰評価されたプラットフォーム企業がデータを蓄え、悪いニュースを隠し、規制当局や労働者が追いつくのに必死に奮闘している間に先へ進んでいくのです。

AIはそのテンプレートにまるで完璧にはまる。規制や公の反発を避けるために独自の研究をフィルタリングしているとされる、閉鎖されたMicrosoft支援のラボが、全産業を再構築する可能性を持つモデルを抱えているのは、研究所というよりも、大規模テクノロジー2.0のように見え、リスクが一層高まっている。

各高名な辞職は雰囲気を一層強めています。高額の六桁報酬から去る経済研究者、安全チームの解散、そして「人類に対する危険な賭け」が警告される内部告発者 — 別のOpenAI研究者が辞職—AIラボが人類に対して危険な賭けをしていると主張 — これらは全て、何か危険なものが隠されているという感覚を助長しています。

その信頼の erosion が続くなら、反発はオンラインに留まらないだろう。AIのモラトリアムや広範な責任規則にすでに目を付けている立法者たちは、厳しい規制を定める可能性があり、これによりOpenAIだけでなく、実験が凍結され、既存の企業が entrenched し、技術の有益な使用が一世代にわたって遅れることになるだろう。

審判の日:もはやOpenAIを信頼できるのか?

OpenAIへの信頼はかつてデフォルト設定でした。「すべての人類に利益をもたらす」と約束する非営利の研究所は、モデルや安全性の研究をオープンソース化し、AIの世界における大人のように見えました。しかし今では、トム・カニンガムがその経済研究チームを「プロパガンダ」ショップに変わったと非難し、複数の安全性や政策の研究者たちが退職し、潜在的な兆候のために保護されるように構造的に組織された企業が存在しています。

カニンガムの主張は、少なくとも2人の経済研究者が、OpenAIが仕事の喪失、規制リスク、または深刻な混乱を強調した研究の公表に消極的になったとされる報道と組み合わせると、より重くのしかかる。Wiredの情報筋によれば、生産性向上を強調する内部分析は生き残ったが、「規制を助長する」または「公の反発を引き起こす」可能性のある研究は滞ったという。それは中立的なフィルターではなく、企業のそれである。

安全の混乱にさらに重ねて考えてみてください。スーパーアライメントチームのメンバー、長期的リスク研究者、ポリシー担当者が過去18ヶ月で離脱したり、排除されたりしています。複数のメンバーは、GPT-4やGPT-4o、そして現在のマイクロソフトのAI戦略を支えるアプリエコシステムなどの製品ローンチが、安全作業よりも優先されることに対する不満を述べています。

一方で、金銭は全てを歪ませる。OpenAIの利益上限構造は、投資家に最大100倍のリターンを得ることを許している。マイクロソフトはこの会社に100億ドル以上を注ぎ込み、ChatGPTCopilotをWindowsとOfficeに統合し、報道によれば評価額は1000億ドルに達する可能性があり、1兆ドルのIPOの未来について興奮した議論が交わされている。このような資本があなたに圧力をかけると、「研究」は「マーケティング資材」に非常に似てくる。

それに対してAnthropicは、少なくとも詳細なモデルカード、レッドチーミングレポート、そして壊滅的リスクについての考え方を説明する政策フレームワークを公開しています。Anthropicは完璧ではありませんが、そのデフォルトの姿勢は説明することです。OpenAIのデフォルトの姿勢は、今やより「スピンをかける」ように見えます。

ユーザー、規制当局、そして他の研究者たちは厳しい問いに直面しています:OpenAIが洗練された「職場におけるAI」計画や経済影響に関する白書を発表した場合、それを科学として扱うべきなのか、それとも単なる企業の主張として扱うべきなのか?内部者が自らの成果をプロパガンダと呼ぶなら、懐疑心は偏執病ではなく、必要な衛生状態です。

安全主張、経済影響研究、トレーニングデータの実践に関する必須の独立した第三者監査は、もはや必要不可欠です。労働市場、情報エコシステム、国家安全保障を再構築する可能性のあるモデルを出荷するすべてのラボにとって、それは必須条件です。ソーシャルメディアにおける自主規制は失敗しました。AIには再チャンスはありません。

将来のAIのブレークスルーは、それを提供する人々に対する公衆の信頼がどれほど重要かに比べると、さほど重要ではありません。信頼がなければ、たとえ本当に有益なシステムであっても、「周囲の敵意」や政治的な反発に直面します。OpenAIの危機は、単に一企業の秘密に関するものではなく、この業界が今後も迅速に進む権利を得るかどうかに関する初期の国民投票でもあります。

よくある質問

トム・カニンガムがOpenAIを辞めた理由は何ですか?

彼は、内部でオープンAIの経済研究チームが「本物の研究」から逸脱し、客観的な発見よりもAIの擁護を優先して会社の「宣伝部門」のように行動していると主張した後、辞職したと報じられています。

OpenAIは何を隠していると非難されていますか?

情報筋によると、OpenAIは、規制の加速、公共の反発、導入の遅れを引き起こさないようにするため、雇用喪失などのAIによる重大な経済的影響を示す内部研究の発表をためらっているとのことです。

OpenAIのスーパーアラインメントチームに何が起こったのですか?

OpenAIは、長期的なAGIの安全性に焦点を当てていたスーパアラインメントチームを解散しました。この動きと、重要な人材の離脱が相まって、同社が新製品の開発を優先して安全性を後回しにしているとの批判を引き起こしています。

OpenAIのAIリスクに対する公の立場は、Anthropicのそれとどのように比較されますか?

OpenAIが悪影響を軽視していると非難される一方で、Anthropicのような競合他社は、AIによる大規模な職業喪失の高い可能性について公に声を上げており、透明性において明確な対比を生み出しています。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts