AIのパニックは数十億ドルの嘘である

超知能の終末論は忘れよう; 世界最高の開発者たちはそれが非現実的な気晴らしだと主張している。真のAI革命は、病気から気候変動まで、人類の最大の問題を解決するための特定のツールを作り出すことにある。

Stork.AI
Hero image for: AIのパニックは数十億ドルの嘘である
💡

TL;DR / Key Takeaways

超知能の終末論は忘れよう; 世界最高の開発者たちはそれが非現実的な気晴らしだと主張している。真のAI革命は、病気から気候変動まで、人類の最大の問題を解決するための特定のツールを作り出すことにある。

AIを止めるための「魔法の杖」は幻想である

魔法の杖はAIの議論において注目を集めています。特定の研究者や創業者に尋ねれば、彼らはもし可能ならば、今日のAI開発を凍結して、人間の制御を超え、ひょっとすると人類自体を超えてしまうスーパーインテリジェンスの暴走を避けたいと話すでしょう。その幻想は、「一時停止」、「モラトリアム」、そして現状を固定するための世界的な条約を求める請願を支えています。

現実は協力しない。現代の経済は積み重なる技術進歩によって成り立っている:トランジスタの数は数十年にわたり約2年ごとにほぼ倍増し、2010年の約2ゼタバイトから2023年までに120ゼタバイトを超えるグローバルデータ量が急増し、AIモデルのトレーニング予算は現在、最前線のシステムごとに数千万円に達している。それを止めることは政治的に不可能なだけでなく、ライバルがそうしない限り、そのような試みをする国にとっては戦略的に自殺行為だ。

より実践的な立場では、AIは道具として扱われ、神話的な敵とは見なされません。「AIは道具であって脅威ではない」という議論の中で、ウェスとディランは、展開に厳密に焦点を当てた継続的な開発が、今日の具体的な利益をもたらすと主張しています:より良い診断、安全な道路、安価なエネルギーです。インスリンの生産をより効率的にしたり、都市の電力使用を二桁削減したりするために、神のようなAGIは必要ありません。

AIのバイナリ「オン/オフ」スイッチの代わりに、特定のドメインに向けた狭義のAIシステムのスペクトルを推進しています。次のようなモデルに焦点を当てることができます: - 特定の疾患に対する薬剤の発見 - グリーンエネルギーの予測とグリッドのバランス調整 - スマートシティの交通とインフラの最適化

これらの各用途は、制約のある目的、測定可能な成果、および既存の規制に基づくフックを持っています。それはガバナンスの問題であり、絶滅に関するスリラーではありません。

魔法の杖のような枠組みは、技術が実際に進化する方法を無視しています。すでに、電話、工場、車両には半自律システムが存在し、フェニックスから深センまでの都市で自動運転が行われています。ウェスとディランは、自動運転のための技術的能力がほぼ存在しており、実装は今や政府、保険会社、物流提供者が追いつくのを待っていると主張しています。

本当の選択は「AGIを構築するかしないか」ではありません。社会が進行中のAIの進展を具体的で検証可能なツールに形作るか、それともそれを完全に止めることが不可能な幻想を追い求めるかということです。

AGIを忘れろ—本当の革命は「退屈」なAIだ

イラスト: AGIを忘れよ—真の革命は「退屈な」AIにある
イラスト: AGIを忘れよ—真の革命は「退屈な」AIにある

一時的にSFのAGIのことは忘れて、お金の流れに注目しましょう。現在、AIに流れ込んでいるほぼすべてのドルは展開を目的としています。病気を診断するモデル、トラックのルートを決定するシステム、コードを書くプログラム、株を取引するアルゴリズムなどが対象です。神のような知性が人類の滅亡を企むという話ではありません。投資家たちは、出荷でき、請求でき、改良できるシステムを求めているのです。仮想の超知性についての哲学的実験ではないのです。

ナロウAIとは、明確な制約の下で特定の領域をマスターするために構築されたシステムを指します。詐欺検出モデルは取引を分析し、詩を分析するわけではありません。DeepMindのAlphaFoldのようなタンパク質折り畳みモデルは、2億以上のタンパク質の3D構造を予測しますが、あなたのフライトを予約したり、メールを書いたりすることはありません。

その焦点はリスクの計算を変えます。風力発電所を最適化したり、CTスキャンで腫瘍を検出するモデルには、偏見、停止、悪いインセンティブといった実際の欠点がありますが、「ペーパークリップ最大化者」による絶滅シナリオのようなものではありません。それをサンドボックス化し、監視し、オフにし、バージョンを巻き戻すことができます。しかし、すべての政策対話で中心に据えられている想像上の全知全能のAGIについては、それができません。

一方で、今日の狭義のAIが解決できる問題の backlog は果てしなく見えます。医薬品の発見だけでも何千もの病気が存在します。AI設計の分子は、候補のスクリーニングにかかる時間を数年から数ヶ月に短縮しました。2023年、Insilico MedicineはAI設計の線維症薬を第II相臨床試験に進め、通常10年の作業と10億〜20億ドルの費用がかかるプロセスを圧縮しました。

エネルギーとインフラは、明らかに狙うべき対象リストを提供します: - グリッド負荷予測と需要応答 - 風力および太陽光発電の出力予測 - 混雑した都市での信号最適化 - 橋、鉄道、および変圧器の予測保守

シンガポールやバルセロナのような場所でのスマートシティパイロットは、マスク氏がすでに機械学習を利用して混雑を10%以上削減し、公共施設のエネルギー消費を抑えています。これを世界規模に展開すれば、新たな物理的トリックを発明することなく、ギガトン単位の排出削減が実現できます。

自動運転車の議論さえも、AGIの物語がいかに偏っているかを露呈しています。エロン・マスクの「自律性には『一般知能』が必要だ」という主張にもかかわらず、今日ではフェニックス、サンフランシスコ、そして深センでレベル4のロボタクシーが運行されています。阻害要因は意識モジュールの欠如ではなく、規制当局、保険会社、そして市議会です。

次のがん治療薬はAIによって設計されるかもしれません。

癌研究のラボはすでに生成モデルを使用して、人間が発見するのに何年もかかるような分子を設計しています。インシリコメディスンは、AI設計の分子から4年以内に線維症薬をフェーズ2臨床試験に進めましたが、通常このプロセスは10年以上かかります。Google DeepMindのAlphaFoldは、2億以上のタンパク質の構造を予測し、薬剤探索者に潜在的なターゲットの検索可能な地図を提供しました。

狭いAIは、映画の中の画期的な突破口で「ガンの治療法を発見する」わけではありません。それは何百もの小さなステップで時間とコストを削減します。モデルはビリオンの化合物をシリコーンでスクリーニングし、マウスが注射器を見てしまう前に毒性を予測し、単一の腫瘍の変異に合わせて薬剤の組み合わせをパーソナライズします。製薬巨大企業は今や、全ての候補薬がウェットラボのずっと前に機械学習のフィルターを通過するAIファーストパイプラインについて語っています。

ほぼすべての疾患を選んでも、ワークフローは繰り返されます。希少な遺伝性疾患に対しては、モデルがCRISPRガイド用の編集を提案し、オフターゲット効果をシミュレーションします。感染症については、EVEscapeのようなシステムがウイルスの変異を予測し、次の変異株に先んじるワクチンの設計を助けます。これらのすべては、意識的な機械を必要とせず、ペタバイトの生物医学データに対する執拗なパターン認識だけが求められます。

エネルギーインフラも同様の変革を静かに遂げています。グリッド運営者はAIを活用して、需要を15分単位で予測し、バッテリー、ガスピーカー、または屋根上ソーラーをいつ配備するかを最適化しています。グーグルは、DeepMindの強化学習を適用した後、データセンターの冷却エネルギーを約40%削減したと報告しており、これは都市が地域冷暖房ネットワークに応用できるテンプレートです。

スマートシティプロジェクトは、交通信号をリアルタイムで調整するために最適化アルゴリズムを利用し、混雑や排出を削減しています。AIモデルは電動バスのルートを決定し、グリッドのピークを避けるために充電をスケジュールし、変圧器が爆発する前にどれが故障するかを予測します。都市計画者は、衛星画像やセンサーデータをシステムに入力し、EV充電ステーション、自転車レーン、マイクログリッドをどこに配置すべきかを提案します。

これらのツールは、投機的な未来には存在しません。これらは、今日、病院、公共事業、そして市役所で稼働しており、ビジネススクールはAIは脅威ではなく、エキサイティングな機会である - AACSBのような記事で同じメッセージを伝えています。いわゆる「AIパニック」は、真の活動がすでに導入されており、終末ではないという事実をほとんど無視しています。

イーロン・マスクは自動運転車について間違っていた

イーロン・マスクはかつて、自動運転車を過小評価していたと語りました。「それを実現するために、一般知能を解決しなければならないことに気づかなかったからです。」これは深い意味があるように響きました。公共の道路での自律性には、デジタルの人間の脳に近い何かが必要だということです。しかし、この見解は時と共に古くなりました。

自動運転はもはやAGIを待つ夢物語のようには見えず、展開の問題に見えてきた。クルーズ、ウェイモ、バイドゥなどの企業は、哲学ではなく知覚、予測、計画を専門とする狭義のAIスタックで数百万マイルの自動運転を記録している。ウェイモだけで、2023年までに700万マイル以上の完全自動運転を報告しており、いくつかのカテゴリーで事故率は人間の基準を下回っている。

ウェス・ロスとディラン・キュリアスが自動運転について話すとき、彼らははっきりと言います。「彼らはそれを解決したと思う。」彼らの主張は、フェニックス、サンフランシスコ、深セン、ドバイで見られる光景と一致します。そこでは、ロボタクシーがすでに実際の街で有料の乗客を運んでいます。欠けている要素は、認知におけるブレークスルーではなく、スケール、インフラ、および法的なグリーンライトです。

自動運転は、技術的な不可能性との衝突よりも、規制当局や保険会社との衝突が増えてきています。都市は、無人運転車が歩行者を死亡させた場合の責任について懸念しています。保険会社は、過失が人間からソフトウェアスタックや多数の供給者に移る際のリスクを適切に価格設定するのに苦労しています。地方政府は、データの所有権、駐車スペース、アルゴリズムが遵守すべき交通ルールの管理を巡って争っています。

マスクのAGIの見解は、「一般的な理解」が実際にどれほど要求されるかを過大評価しています。高速道路のレーン維持、都市での左折、保護されていない横断歩道は非常に難しいケースですが、依然としてパターン認識と制御の問題です。テスラのオートパイロット、ウェイモのドライバー、百度のアポロといったシステムは、以下の専門モデルを組み合わせています: - 物体検出 - レーンおよび道路トポロジー - 行動予測 - 動作計画

それらのモデルは、人間のように世界を「理解」しているわけではありませんが、限られた領域では十分に近似することができます。つまり、詩を書くことや税金を処理すること、倫理について議論することができるシステムが必要なわけではなく、ラッシュアワーにI-280に合流するためのソフトウェアが必要なのです。電話を一切見ないソフトウェアが。

あなたの車が自動運転できない本当の理由

イラスト: あなたの車が自動運転できない本当の理由
イラスト: あなたの車が自動運転できない本当の理由

規制がロボット技術ではなく、あなたのハンドルを手元にしっかりと固定します。Waymo、Cruise、Teslaの自律システムはすでに数百万マイルを走行しており、レベル2から4の自律運転を実現し、レーンキーピング、アダプティブクルーズ、複雑な市街地の通行を処理しています。コードが運転し、法律がブレーキをかけます。

政府は立法の速度で動き、ネットワークの遅延ではありません。人間の運転手がいない車を公道に出すためには、規制当局が「AI運転手」とは何かを定義し、それを認証するのは誰か、そして不良アップデートが配信された場合にどのように回収するのかを明確にする必要があります。アメリカでは、NHTSA、州のDMV、そして市議会がそれぞれ重複した権限を主張しているため、各導入は特注の法的交渉に発展します。

規制当局は非対称リスクにも懸念を抱いています。一つの目を引く事故が議会の公聴会や一時停止を引き起こし、たとえ人間が米国の道路で毎年約40,000人を犠牲にしているとしても、それが政治的な非対称性を生み出し、機関が自動運転の全国的な明確なルールではなく、無限の試験プログラムや「安全評価」に向かうことを促しています。

保険は別の摩擦層を加えます。従来の自動車保険は、責任が人間にあると仮定していますが、NVIDIAハードウェア上で動作するニューラルネットワークスタックに対してはそうではありません。アンダーライターは、次のいずれかに責任があるかを決定しなければなりません: - 車の所有者 - 自動車メーカー - ソフトウェアベンダー - センサーサプライヤー

その責任の網が解消されるまで、保険会社は不確実性を保険料に織り込み、あるいは完全に補償を拒否します。自動運転車が関与する一件の多重衝突事故は、複数の管轄にわたる何年にもわたる訴訟を引き起こす可能性があり、エンジニアよりもCFOをはるかに神経質にさせるでしょう。

企業の法務チームは理性的に反応する:慎重な展開を行う。企業は安全運転者を運転席に配置し、日当たりの良い地域での運行に制限を設け、リスクの目立つ事故を最小限に抑えるために速度を制限する。その結果は技術的な失敗のように感じるが、実際にはリスク管理が製品の範囲を決定している。

これらはすべて、狭義のコンピュータビジョンと計画システムが制約された領域で、気を散らした人間よりも多くの運転タスクをすでにより良く処理している間に起こります。高速道路のコンボイ、地図化された都市でのロボタクシー、そして自律トラックハブは、I-280に合流するためにおしゃべりなAGIは必要ないことを証明しています。必要なのは、特化したスタック、堅牢なデータ、そして「十分良い」AIがすでに運転できることを受け入れる意欲のある機関です。

知性はスイッチではなく、スペクトルである。

知能はスイッチのように単純ではなく、むしろ多数のスライダーを持つ調光器のように振る舞います。人間はそのボード上のある一点に位置していますが、タコやチェスエンジン、または次に何を見るかを静かに決める推薦アルゴリズムも同様です。知能をスペクトルとして捉えることで、「人間対機械」という対立は「馬対車」という表現と同じくらい時代遅れに感じられます。

そのスペクトルを受け入れると、ツールとしてのAIはスローガンではなくなり、工学の原則となります。異なるアーキテクチャは異なる段階を占めています:畳み込みネットワークは視覚を支配し、トランスフォーマーは言語を制御し、強化学習エージェントはロボティクスのような制御問題を解決します。どれもあなたのように「考える」わけではありませんが、それぞれが自分の狭い領域で超人間的なパフォーマンスを発揮しています。

そのスペクトルの視点は、人工汎用知能への執着をも損ないます。MRIで腫瘍を見つけたり、リアルタイムで電力グリッドを調整したりするために、デジタルのアインシュタインは必要ありません。必要なのは以下のように調整されたモデルです: - 特定のデータ分布 - 明確な目的関数 - 迅速なフィードバックループ

計算機は数十年前にこれを明らかにしました。5ドルのカシオは、12桁の掛け算や三角関数で人間を圧倒しますが、誰もそれを「知覚力がある」と呼びません。専門的なツールは、一般的な知能の神秘的なしきい値を越えることなく、天気予報、タンパク質の折りたたみ、物流ルーティングにおいてすでに私たちを上回っています。

現代のAIは、そのパターンを単に拡張しています。DeepMindのAlphaFoldは、数年や何百万ドルもかかるラボの手法に匹敵する精度でタンパク質構造を予測します。大規模な言語モデルは契約書を草案し、300ページの報告書を要約し、コードスニペットを生成しますが、5歳児が簡単だと思うような物理的因果関係を乱雑なキッチンで理解することには失敗します。

これはバグではなく、機能です。ツールのようなAIは、データベースエンジンやグラフィックスカードを交換するように監査、制約、交換することができます。知性のスペクトル的視点はモジュラー性を促進します:あるシステムは詐欺を検出し、別のシステムは検索結果をランク付けし、第三のシステムはネットワークの異常を監視します。

セキュリティ研究者はすでにこの混合された世界に住んでいます。自動スキャナー、異常検出器、LLMベースのアシスタントがログを精査する一方で、人間は戦略、あざけり、エッジケースを扱っています。その労働分担についてのより詳しい考察は、AIはサイバーセキュリティ専門家に取って代わるのか?人間対AIの議論をご覧ください。

AIゴールドラッシュの二つの部族の内部

AIラボの内部では、「道具としてのAI、脅威ではない」という論争が哲学的な亀裂に固まっています。一方には、AIを産業インフラとして捉えるビルダーがいます。彼らはAIをクラウドコンピューティングや半導体と同じように神秘的ではないと考えています。もう一方には、気候活動家がホッケースティックのグラフを見つめる緊迫感を持って「神経超知能」や存在的リスクについて語るセーフティストがいます。

ビルダーたちは終末論ではなく、展開について語ります。彼らは、すでに薬物候補を設計し、サプライチェーンを最適化し、生産コードを書いているモデルを指摘し、進展を停止することは、今日恩恵を受ける可能性のある患者、労働者、都市を見捨てることになると主張します。彼らにとって、「AIを停止する魔法の杖」のシナリオは、政策ではなくファンタジー小説のように聞こえます。

安全専門家たちはその論理を逆転させます。彼らは、システムが自律的なコード作成、ツール使用、長期的な計画といった特定の能力閾値に達すると、意図しない行動が私たちの制御能力を超えて急速に拡大すると主張しています。AI安全センターや効果的利他主義ネットワークのようなグループは、誤った整列のシステムが市場、インフラストラクチャー、または情報の流れを操作するというリスクシナリオを引き合いに出し、コンピュートキャップ、ライセンス、さらにはモラトリアムを推進しています。

動機も同様に大きく異なります。OpenAI、Google DeepMind、Anthropic、NVIDIAなどの企業にいるビルダーたちは、GPU、ユーザー数、収益で測られる競争を見ています。一方、安全性を重視する人々は、「最初に出荷した者が勝つ」という同じ競争のダイナミクスが、レッドチーム活動、解釈可能性、整合性の研究において手抜きを促すことを懸念しています。

意見はタイムラインや証拠について異なります。建設者たちは、今日のAIシステムが基本的なロバスト性テストに失敗し、事実を幻覚し、分布外データに苦しんでいることを指摘し、これでは「神のような精神」とは言えません。一方、安全重視の人々は、1000億パラメータを超えるモデルにおけるスケーリング法則や新たに現れる行動、実験室環境での自律エージェントが自らの制約を破るような事例を持ち出しています。

公共の認識はこの戦いの下流に位置しています。イーロン・マスクが「悪魔を呼び出す」という警告を出した1週間後に「完全自動運転」を販売すると、メディアは絶滅の見出しと製品のハイプの間を行き来します。スマートフォンでファンフィクションを書く同じモデルが、失業、偏見、そして暴走するチャットボットに関するストーリーを生み出しているのです。

報道は部族の境界を反映しています。ビルダーたちは「AIコパイロット」と生産性のブームについての物語を提供し、安全志向者たちは「パンドラの箱」や「未調整の強い知能」についての引用を提供します。その中間にいるユーザーは、日々どの部族の主張が自分のフィードを支配するかによって、AIをスプレッドシートのアシスタントとしても、SFの悪役としても捉えています。

ビッグテックが静かに狭いAIを支持している理由

イラスト:ビッグテックが静かに狭いAIを支持している理由
イラスト:ビッグテックが静かに狭いAIを支持している理由

静かに、ほとんど控えめに、ビッグテックはすでに「ツール対脅威」の戦争において側を選んでおり、それはAPIコールで収益を上げています。会議のステージでのAGIに関する講演があれほどあっても、収益は既存のワークフローに組み込まれ、厄介な特定の問題を解決するニッチAIからもたらされます。投資家はスーパーインテリジェンスについての漠然としたアイデアには資金を提供せず、クラウドコストを20%削減したり、コンバージョン率を3.7%向上させる製品に資金を投じています。

市場は明確なメッセージを送りました:彼らはインフラのように感じられる専門的なAPI駆動サービスを求めています。企業は、文書から個人識別情報(PII)を削除したり、200ページの契約を要約したり、15言語で広告コピーを自動生成したりするモデルに対して支払います。これらは研究用のおもちゃではなく、SLA、ダッシュボード、および調達システムの項目として提供されます。

OpenAIのビジネスはこの変化を反映しています。ChatGPTが注目を集めていますが、実際の収益はOpenAIのAPIにあります。ここで、GPT-4、ファインチューニングされたバリアント、そして埋め込みが次のような用途で活躍しています: - カスタマーサポートボット - コードアシスタント - 文書検索と分類 - ワークフロー自動化

OpenAIは「プロトAGI」を販売しているのではなく、特定のユースケースに調整されたリクエストごとに処理されるトークンを販売しています。

Googleは同じ戦略を採用しています。Google CloudはVertex AI、Geminiモデル、特定分野向けのサービスを推進しています。対象分野は以下の通りです: - コールセンター分析 - 小売需要予測 - サプライチェーン最適化 - セキュリティイベントのトリアージ

ジェミニは一般的なアシスタントとしてマーケティングされていますが、営業チームは意識ではなく、チケットの回避あたりのコストについて議論しています。

Anthropicはこの現実にさらに踏み込んでいます。Claude 3 Opus、Sonnet、Haikuはレイテンシ、コスト、コンテキストウィンドウによって明確にセグメント化された階層型製品ラインとして登場します。彼らの提案は、突発的な一般知能の約束ではなく、企業環境における信頼性—ポリシーの遵守、内部知識検索、コンプライアンスのワークフロー—に焦点を当てています。

AGIは依然として長期的なブランディングストーリーの中で漂っており、今日の研究開発予算を正当化する一種の神学的な終着点です。しかし、四半期ごとの収益報告や漏洩したピッチデッキが指し示す方向は同じです:短期的な財政的および実用的なインセンティブは、狭義の組み込みAI周辺に集まっています。ツール化は、ビジネスが実際に技術を購入する方法にフィットするため勝利します—段階的に、予測可能に、そしてKPIに厳しく結びついています。

AI破滅論者が見落としていること

AIの悲観論者たちは問題を幻覚しているわけではありません。彼らは、モデルによって強化されたバイオ兵器、大規模な自動ハッキング、大量監視、労働の衝撃、および数社が兆パラメータモデルに権力を集中させるリスクといった、実際のリスクを指摘しています。これらの懸念はすでに、NISTやEUのAI法、英国のフロンティアAIタスクフォースの政策文書に現れています。

彼らが誤っているのは、そのリスクを絶滅への一方向のコンベヤーベルトとして扱うのではなく、エンジニアリングガバナンスの問題の積み重ねと捉えることです。我々はすでに層状の管理策で危険な技術を緩和しています:核物質の輸出規制、航空機のFAA認証、薬物のFDA試験など。AIには、研究を止めるための赤いボタンではなく、同様に退屈で官僚的な仕組みが必要なのです。

狭義のAIは、規制当局やエンジニアに彼らが理解できるものを提供します。つまり、測定可能な失敗モードを持つ限界のあるシステムです。キナーゼ阻害剤の設計、配達トラックのルート設定、または不正取引の検出を行うモデルは、データの毒性、敵対的プロンプト、偏った訓練データセットといった特定の攻撃面を明らかにします。これにより、チームはテスト、レッドチーム活動、認証を行うことができます。しかし、仮想の神のような知性に対してはそのようなことはできません。

ドメイン特化型システムの反復展開は、抽象的な厄災シナリオから欠けている実世界のデータを生成します。病院がAI支援による診断を記録し、銀行がAI駆動の融資判断を追跡し、都市が交通最適化のパイロットを実施することで、エラー率、バイアス、悪用に関する具体的な数値が得られます。これらの数値は、思考実験では決して実現できない方法で標準、責任規則、保険モデルを推進します。

開発のモラトリアムを求める声は安全に聞こえますが、実際には今日の脆弱で不透明なモデルと、現在存在しないガードレールの下で私たちを凍結させます。進捗が止まると、モデルの解釈可能性、透かし加工、推論のためのセキュアエンクレーブ、包括的な評価基準に関する作業も停滞します。社会は、野放しになったブラックボックスツールとそれを管理するための組織的な力を持たない状態になってしまいます。

より合理的な道筋は次のようになります: - 医療、物流、気候技術に狭義のAIを導入する - 厳格な監査およびインシデント報告を伴う展開を行う - 能力と証拠が蓄積されるにつれて規制を強化する

そのアプローチは、AIは主にツールであり、待機する神ではないと主張するグループからの新たなフレームワークに一致しています。例えば、「AIは脅威ではなくツールである;人間 + AI > AI - LSAC」を参照してください。開発の停止はこの分野を放棄することになり、制御された導入は私たちに優位性を与えます。

私たちの使命:デジタルの神々ではなく、道具を作ること

私たちのAIとの未来は、デジタルの神を生み出すことには依存していません。それは、より良いツールを構築することにかかっています。モデルを神託ではなく、道具として扱うことで、その価値が明確になります:パターン認識、コードの共同操縦者、実験室の助手、物流の計画者。それぞれのシステムは、非常に特定のことを一つ極めて得意に行い、その点でこそ変革をもたらします。

フレームを変えれば、政策の議論は一夜にして変わります。仮想的な超知能について議論するのではなく、議員たちは医療診断、排出量追跡、または融資承認のためのAIの基準を策定することができます。規制当局はすでに航空機、医薬品、原子力発電所に対してこれを行っています。AIも同様に汎用的なパニックボタンではなく、分野特有のルールに値します。

開発者にも同様の責任があります。チームが小型モデルをクリニック、倉庫、または都市グリッドに展開するのではなく、大規模な言語モデルのベンチマークを最適化するたびに、機会コストが積み重なります。選択は「AGIか破滅か」ではなく、次のようなものです: - ERの待機時間を30~40%削減するトリアージシステム - 全国のエネルギー使用量を単 digits パーセント削減するグリッド最適化 - 食品廃棄物を数百万トン削減するサプライチェーンモデル

公共の関心も移り変わることがあります。親は、子供の学校がリアルタイムで学習のギャップを把握するためにAIを使用しているかどうかを心配するべきであり、SF映画のロボットの反乱についてあまり考えない方が良いでしょう。労働者は、決定を説明し、出所を記録し、人間を常に関与させる支援システムを要求すべきであり、静かに自動で給付やローンを拒否する不透明なブラックボックスではありません。

希望のある軌道は神秘的ではなく具体的です。AIが設計した薬は、5~10年ではなく、24ヶ月以内に臨床試験に到達します。コンピュータービジョンは石油田全体のメタン漏れを追跡でき、強化学習は人口密集都市で通勤時間と排出量を削減するために信号機を調整します。

進歩と安全は、天秤の対極にあるわけではありません。よりスマートで狭いシステムは、単一の「一般的」な思考よりもテスト、認証、リコールが容易です。我々の使命は非常にシンプルであるべきです:がん、気候変動、インフラの劣化に取り組む専門的なAIを構築し、デジタルの神々についての議論は、実際に命を救う作業からの気晴らしに過ぎないと捉えるべきです。

よくある質問

AIは道具と見なされるのか、それとも脅威と見なされるのか?

多くの専門家は、AIは特定の問題を解決するための強力なツールとして見なされるべきであり、新しい医薬品の開発やエネルギーグリッドの最適化などに役立つものであると主張しています。議論は、スーパーインテリジェンスに対する恐れから進歩を停止するのではなく、利益をもたらす狭い応用に開発を集中させるべきかに焦点を当てています。

ナローAIと汎用AI(AGI)の違いとは何ですか?

狭いAIは、車の運転やスキャン中の病気の特定など、特定のタスクを実行するように設計されています。人工汎用知能(AGI)は、人間のような知能を持ち、幅広いタスクにわたって知識を理解、学習、適用する能力を持つ理論上のAIの形態です。

なぜ自動運転車は技術が存在するのに主流になっていないのか?

自動運転車のためのコアAI機能はほぼ確立されていますが、広範な普及は技術以外の障壁によって遅れています。これには、複雑な政府の規制、未解決の保険責任の問題、そして大規模な展開に向けた巨大な物流課題が含まれます。

今日の狭いAIの実用的な応用にはどのようなものがありますか?

狭義のAIはすでに、疾病に対する新薬の発見を加速させたり、グリーンエネルギーシステムを最適化したり、スマートシティの交通管理を行ったり、自律運行交通の支援をするなど、さまざまな有益なタスクに利用されています。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts