TL;DR / Key Takeaways
«Волшебная палочка» для остановки ИИ — это фантазия.
В мире искусственного интеллекта волшебные палочки сейчас на слуху. Спросите определённую группу исследователей и основателей, и они скажут вам, что, если бы у них была возможность, они бы приостановили развитие ИИ сегодня, чтобы избежать uncontrolled суперинтеллекта, который выйдет из-под контроля человека, а возможно, и самой человечности. Эта фантазия подстегивает петиции за «приостановки», моратории и глобальные договора для закрепления существующего положения вещей.
Реальность не идет на сотрудничество. Современные экономики зависят от накопительного технологического прогресса: количество транзисторов примерно удваивалось каждые два года на протяжении десятилетий, объемы глобальных данных вскочили с около 2 зеттабайт в 2010 году до более чем 120 зеттабайт к 2023 году, а бюджеты на обучение ИИ-моделей теперь достигают десятков миллионов долларов на каждую передовую систему. Отключить это не только политически невозможно; это стратегически самоубийственно для любой страны, которая попробует это сделать, пока конкуренты не делают то же самое.
Более прагматичная позиция рассматривает ИИ как инструмент, а не мифического соперника. В разговоре «ИИ как инструмент, а не угроза» Уэс и Дилан утверждают, что продолжающееся развитие, строго сосредоточенное на внедрении, приносит ощутимые выгоды уже сегодня: лучшие методы диагностики, более безопасные дороги, более дешевую энергию. Для того чтобы сделать производство инсулина более эффективным или сократить потребление электроэнергии в городе на двузначные проценты, вам не нужен подобный богу AGI.
Вместо бинарного переключателя "включено/выключено" для ИИ, они предлагают спектр узких ИИ систем, нацеленных на конкретные области. Вы можете нацелить модели на: - Открытие лекарств для отдельный заболеваний - Прогнозирование зеленой энергии и балансировку электросети - Оптимизацию трафика и инфраструктуры в умных городах
Каждый из этих случаев использует ограниченные цели, измеримые результаты и существующие регуляторные механизмы. Это проблема управления, а не триллер о вымирании.
Рамка волшебной палочки также игнорирует, как на самом деле развиваются технологии. У нас уже есть полуан autonome системы в телефонах, на фабриках и в автомобилях, с самоуправляемыми пилотами, работающими в городах от Феникса до Шэньчжэня. Уэс и Дилан утверждают, что техническая возможность для автономного вождения в значительной мере уже существует, и что развертывание теперь зависит от того, смогут ли правительства, страховщики и логистические компании успеть за развитием.
Таким образом, настоящий выбор не «разрабатывать ИИ или не разрабатывать». Речь идет о том, будут ли общества формировать продолжающийся прогресс ИИ в конкретные, проверяемые инструменты или же будут преследовать невозможную фантазию остановить его полностью.
Забудьте о AGI — настоящая революция заключается в «скучном» ИИ.
Забудьте на секунду о научной фантастике и сосредоточьтесь на деньгах. Почти каждый доллар, который сейчас поступает в ИИ, нацелен на внедрение: модели, которые диагностируют болезни, распределяют грузовики, пишут код и торгуют акциями, а не всеведущие разумы, замышляющие гибель человечества. Инвесторы хотят системы, которые они могут поставлять, выставлять счета и улучшать, а не философские эксперименты о гипотетических сверхинтеллектах.
Узкий ИИ означает именно это: система, созданная для освоения конкретной области в рамках четких ограничений. Модель обнаружения мошенничества анализирует транзакции, а не поэзию. Модель сворачивания белков, такая как AlphaFold от DeepMind, предсказывает 3D-структуры для более чем 200 миллионов белков; она не бронирует ваши рейсы и не пишет ваши электронные письма.
Этот фокус изменяет расчёт рисков. Модель, которая оптимизирует ветровую электростанцию или выявляет опухоли на КТ-сканах, имеет реальные недостатки — предвзятость, сбои, плохие стимулы — но не сценарии вымирания в стиле «максимизатора скрепок». Вы можете протестировать её в изолированной среде, контролировать, отключать и откатывать на предыдущую версию. Об этом нельзя сказать о воображаемом всеведущем ИИ, вокруг которого сторонники неоправданного согласования продолжают вести обсуждения в каждой политической беседе.
В то же время список проблем, которые может решать узкий ИИ, кажется бесконечным. Только в области открытия лекарств охвачено тысячи заболеваний; молекулы, созданные с помощью ИИ, уже сокращают время отбора кандидатов с нескольких лет до нескольких месяцев. В 2023 году компания Insilico Medicine продвинула лекарство от фиброза, разработанное с помощью ИИ, на II фазу клинических испытаний, сжав процесс, который обычно обходится в 1–2 миллиарда долларов и занимает десятилетие работы.
Энергетика и инфраструктура предлагают еще один очевидный список целей: - Прогнозирование нагрузки на сеть и реагирование на спрос - Прогнозирование выработки энергии с помощью ветра и солнца - Оптимизация светофоров в congested городах - Прогнозирующее обслуживание мостов, железнодорожных путей и трансформаторов
Пилоты умных городов в таких местах, как Сингапур и Барселона, уже используют машинное обучение для снижения уровня заторов на десятки процентов и сокращения потребления энергии в общественных зданиях. Масштабируя это на глобальном уровне, можно значительно уменьшить выбросы углерода, не изобретая при этом ни одного нового физического трюка.
Даже дебаты о самоуправляемых автомобилях показывают, насколько искажена нарратив о AGI. Несмотря на заявление Илона Маска о том, что автономия требует "общего интеллекта", сегодня компании запускают роботакси уровня 4 в Фениксе, Сан-Франциско и Шэньчжэне. Препятствия — это регуляторы, страховые компании и городские советы, а не отсутствие сознательных модулей.
Ваше следующее лекарство от рака может быть создано с помощью ИИ.
Лаборатории по исследованию рака уже используют генеративные модели для разработки молекул, которые людям потребовалось бы годы на открытие. Компания Insilico Medicine продвинула лекарство от фиброза от молекулы, созданной с помощью ИИ, до второй фазы клинических испытаний за менее чем 4 года, в то время как этот процесс обычно занимает более десяти лет. AlphaFold от Google DeepMind предсказал структуры более 200 миллионов белков, предоставляя исследователям лекарств поисковый атлас потенциальных мишеней.
Узкий ИИ не "открывает лекарство от рака" в каком-то кинематографическом прорыве; он сокращает время и стоимость на сотнях мелких этапов. Модели сканируют миллиарды соединений в силико, предсказывают токсичность до того, как мышь когда-либо увидит шприц, и персонализируют комбинации лекарств в зависимости от мутаций в одной опухоли. Фармацевтические гиганты теперь говорят о AI-first пайплайнах, где каждое кандидатное лекарство проходит через фильтры машинного обучения задолго до попадания в wet lab.
Выберите почти любое заболевание, и процесс повторяется. Для редких генетических расстройств модели предлагают изменения для направляющих CRISPR и моделируют эффекты вне цели. Для инфекционных заболеваний такие системы, как EVEscape, прогнозируют вирусные мутации, помогая разрабатывать вакцины, которые опережают следующий вариант. Для всего этого не требуется сознательная машина — достаточно безостановочного распознавания паттернов на петабайтах биомедицинских данных.
Энергетическая инфраструктура тихо проходит аналогичную трансформацию. Операторы сетей используют ИИ для прогнозирования спроса с интервалом до 15 минут, оптимизируя время разрядки батарей, газовых пиковых установок или солнечных батарей на крышах. Google сообщила о снижении потребления энергии на охлаждение своих дата-центров примерно на 40% после применения механизмов обучения с подкреплением от DeepMind, что может стать образцом для городов в сфере районного охлаждения и отопления.
Проекты умных городов теперь используют алгоритмы оптимизации для настройки светофоров в реальном времени, снижая заторы и выбросы. Модели ИИ прокладывают маршруты для электрических автобусов, планируют зарядку, чтобы избежать пиковых нагрузок на электросеть, и предсказывают, какие трансформаторы выйдут из строя до того, как они взорвутся. Градостроители загружают спутниковые снимки и данные с датчиков в системы, которые предлагают, где разместить зарядные устройства для электромобилей, велосипедные дорожки и микроэлектросети.
Ничто из этого не существует в спекулятивном будущем. Эти инструменты уже работают в больницах, коммунальных предприятиях и городских властях, в то время как бизнес-школы проповедуют то же самое в статьях, таких как ИИ - это захватывающая возможность, а не угроза - AACSB. Так называемая "паника вокруг ИИ" в основном игнорирует тот факт, что настоящие действия уже развернуты, а не предвестники конца света.
Илон Маск ошибался насчет автопилотируемых автомобилей.
Илон Маск однажды сказал, что недооценил автомобили с автопилотом, потому что «мы не осознавали, что нам нужно решить проблему общего интеллекта, чтобы это заработало». Это звучало глубоко, как будто автономность на дорогах общего пользования требовала чего-то, близкого к цифровому человеческому мозгу. Однако это высказывание плохо устарело.
Автономное вождение больше не выглядит как мечта о будущем, ожидающая искусственного общего интеллекта; это кажется проблемой развертывания. Cruise, Waymo, Baidu и другие компании проложили миллионы автономных миль с использованием узких ИИ решений, специализирующихся на восприятии, прогнозировании и планировании, а не философии. Только Waymo сообщила о более чем 7 миллионах миль полностью без водителя к 2023 году при уровне аварий ниже человеческих показателей в нескольких категориях.
Когда Уэс Рот и Дилан Кьюриос говорят о беспилотниках, они прямо заявляют: «Я думаю, что эту задачу решили». Их утверждение соответствует тому, что вы видите в Фениксе, Сан-Франциско, Шэньчжэне и Дубае, где роботакси уже работают на настоящих улицах с платными пассажирами. Недостающим элементом является не прорыв в Cognition, а масштаб, инфраструктура и юридические разрешения.
Теперь беспилотные автомобили сталкиваются не столько с техническими невозможностями, сколько с регулировщиками и страховщиками. Города беспокоятся о ответственности, когда беспилотный автомобиль сбивает пешехода. Страховые компании испытывают трудности с оценкой риска, когда вина переходит от человека к программному обеспечению и десятку поставщиков. Местные власти争 за право собственности на данные, пространство для парковки и контролем правил дорожного движения, которым должны подчиняться алгоритмы.
Формулировка ИИ от Маска переоценивает, сколько «общего понимания» на самом деле требуется для вождения. Сохранение полосы на шоссе, повороты налево в городе и незащищенные переходы – это крайне сложные крайние случаи, но они все же остаются задачами распознавания шаблонов и управления. Системы, такие как Tesla Autopilot, Waymo Driver и Baidu Apollo, объединяют специализированные модели для: - Обнаружения объектов - Топологии полос и дорог - Прогнозирования поведения - Планирования движения
Эти модели не "понимают" мир так, как это делает человек; они достаточно хорошо аппроксимируют его для ограниченных областей. В этом и суть: вам не нужна система, которая умеет писать стихи, делать налоги и аргументировать этику, чтобы слияться на I‑280 в час пик. Вам нужно программное обеспечение, которое никогда не отвлекается на телефон.
Настоящая причина, по которой ваш автомобиль не может ехать сам.
Регулирование, а не роботы, удерживает ваше рулевое колесо в ваших руках. Автономные системы от Waymo, Cruise и Tesla уже проехали миллионы миль с уровнем автономии 2–4, справляясь с поддержанием полосы, адаптивным круиз-контролем и сложными городскими улицами. Код управляет, закон ставит тормоза.
Правительства действуют с законодательной скоростью, а не с задержкой сети. Чтобы запустить автомобиль без водителя на общественную дорогу, регуляторам необходимо определить, что такое «AI-водитель», кто его сертифицирует и как отозвать его, если вышло плохое обновление. В США NHTSA, государственные Департаменты транспортных средств и городские советы все заявляют о пересекающихся полномочиях, поэтому каждое развертывание превращается в индивидуальные юридические переговоры.
Регуляторы также опасаются асимметричного риска. Один громкий инцидент вызывает слушания в Конгрессе и моратории, даже если люди убивают примерно 40,000 человек в год на дорогах США. Эта политическая асимметрия подталкивает агентства к бесконечным пилотным программам и «оценкам безопасности» вместо четких, общенациональных правил для беспилотной эксплуатации.
Страхование добавляет еще один уровень трения. Традиционные автомобильные полисы предполагают виновного человека, а не нейронную сеть, работающую на оборудовании NVIDIA. Андеррайтеры должны решить, чья ответственность лежит на: - Владелце автомобиля - Производителе автомобиля - Поставщике программного обеспечения - Поставщиках датчиков
Пока этот клубок ответственности не распутается, страховщики закладывают неопределенность в премии или вовсе отказываются от покрытия. Одна многомашинная авария с участием автономного автомобиля может привести к многолетним судебным разбирательствам в разных юрисдикциях, что сделает финансовых директоров гораздо более нервными, чем инженеров.
Корпоративные юридические команды действуют рационально: медленный запуск. Компании сохраняют водителей безопасности на месте, ограничивают операции геозонами в благополучных районах и ограничивают скорости, чтобы минимизировать риск негативной огласки. В результате это кажется техническим провалом, но на самом деле это управление рисками, определяющее масштаб продукта.
Все это происходит в то время, когда узкие системы компьютерного зрения и планирования уже справляются с большинством задач вождения лучше, чем отвлеченные люди в ограниченных условиях. Конвои на шоссе, роботизированные такси в картографированных городах и автономные грузовые терминалы доказывают, что вам не нужен общительный ИИ, чтобы заехать на I-280. Вам нужны специализированные системы, надежные данные и учреждения, готовые признать, что «достаточно хороший» ИИ уже может управлять.
Интеллект — это не выключатель, а спектр.
Интеллект больше напоминает диммер с десятками ползунков, чем выключатель света. Люди занимают одну позицию на этой панели, так же как и осьминоги, шахматные движки и алгоритм рекомендаций, тихо решающий, что вы будете смотреть дальше. Рассмотрение интеллекта как спектра делает столкновение “человек против машины” таким же устаревшим, как “лошадь против автомобиля.”
Как только вы примете этот спектр, ИИ как инструмент перестает быть просто слоганом и становится инженерным принципом. Разные архитектуры занимают разные ступени: свёрточные сети доминируют в области визуализации, трансформеры правят языком, а агенты с подкрепляющим обучением решают задачи управления, такие как робототехника. Ни один из них не «думает», как вы, но каждый демонстрирует суперинтеллектуальные результаты в своей узкой области.
Эта спектральная перспектива также подрывает одержимость искусственным общим интеллектом. Вам не нужен цифровой Эйнштейн, чтобы обнаружить опухоль на МРТ или сбалансировать энергосеть в реальном времени. Вам нужны модели, настроенные на: - Конкретные распределения данных - Четкие целевые функции - Сжатые обратные связи
Калькуляторы сделали это очевидным десятилетия назад. Калькулятор за 5 долларов легко обходит человека в 12-значном умножении и тригонометрических функциях, но никто не называет его «сознательным». Специализированные инструменты уже превосходят нас в прогнозировании погоды, сворачивании белков и маршрутизации логистики, не переходя при этом некую мистическую границу общего интеллекта.
Современный ИИ просто масштабирует этот паттерн. AlphaFold от DeepMind предсказывает структуры белков с точностью, сопоставимой с лабораторными методами, на которые уходили годы и миллионы долларов. Большие языковые модели составляют контракты, подводят итоги 300-страничным отчетам и генерируют фрагменты кода, и при этом терпят неудачу в задачах, которые 5-летний ребенок считает тривиальными, таких как понимание физической причинности в беспорядочной кухне.
Это функция, а не ошибка. Инструментальный ИИ можно проверять, ограничивать и заменять так же, как вы меняете движок базы данных или видеокарту. Спектральный подход к интеллекту поощряет модульность: одна система выявляет мошенничество, другая ранжирует результаты поиска, третья отслеживает аномалии в сети.
Исследователи в области безопасности уже живут в этом смешанном мире. Автоматические сканеры, детекторы аномалий и помощники на базе языковых моделей просеивают журналы, в то время как люди занимаются стратегией, обманом и крайними случаями. Для более глубокого изучения этого деления труда см. Заменит ли ИИ специалистов по кибербезопасности? Дебаты человека и ИИ.
Внутри двух племен золотой лихорадки ИИ
Внутри лабораторий ИИ спор о «инструменте, а не угрозе» стал философской трещиной. С одной стороны находятся создатели, которые рассматривают ИИ как промышленную инфраструктуру, не более мистическую, чем облачные вычисления или полупроводники. С другой стороны стоят защитники безопасности, которые говорят о «нейронной суперинтеллекте» и экзистенциальных рисках с той же настойчивостью, с какой климатические активисты смотрят на график в форме хоккейной клюшки.
Строители говорят о развертывании, а не о конце света. Они указывают на модели, которые уже разрабатывают кандидатов в лекарства, оптимизируют цепочки поставок и пишут производственный код, утверждая, что остановка прогресса оставила бы без помощи реальных пациентов, работников и города, которые могли бы получить выгоду уже сегодня. Для них сценарии с "волшебной палочкой, чтобы остановить ИИ" звучат как фантастика, а не как политика.
Безопасники переворачивают эту логику. Они утверждают, что как только системы достигают определенного порога возможностей — автономного написания кода, использования инструментов, долгосрочного планирования — непреднамеренные поведения развиваются быстрее, чем мы можем их сдерживать. Такие группы, как Центр безопасности ИИ и сети эффективного альтруизма, выступают за ограничения вычислительных мощностей, лицензирование и даже моратории, ссылаясь на сценарии крайнего риска, в которых несовместимые системы манипулируют рынками, инфраструктурой или информационными потоками.
Мотивации также различаются столь же резко. Разработчики, часто работающие в компаниях таких как OpenAI, Google DeepMind, Anthropic и NVIDIA, видят конкурентную гонку, измеряемую в GPU, количестве пользователей и доходах. Специалисты по безопасности беспокоятся, что те же динамики гонки — «кто первый, тот и выигрывает» — побуждают к сокращению затрат на проверки безопасности, интерпретируемость и исследования по выравниванию.
Аргументы различаются по временным рамкам и доказательствам. Строители отмечают, что AI-системы сегодня все еще не проходят базовые тесты на надежность, создают вымышленные факты и испытывают трудности с данными вне распределения, что вряд ли говорит о "божественном разуме". Сторонники безопасности отвечают законами масштабирования, возникающим поведением в моделях свыше 100 миллиардов параметров и инцидентами, когда автономные агенты обходят собственные ограничения в лабораторных условиях.
Общественное восприятие находится на заднем плане этой борьбы. Когда Илон Маск предупреждает о "призыве демона" на одной неделе, а на следующей продает "Полное автономное вождение", СМИ прыгают между заголовками о вымирании и ажиотом вокруг продукта. Та же модель, что пишет фанфики на телефоне, также разжигает истории об утрате рабочих мест, предвзятости и непокорных чат-ботах.
Освещение отражает племенные линии. Строители подают нарративы о ИИ-напарниках и всплесках производительности; сторонники безопасности поставляют цитаты о «ящике Пандоры» и «неустойчивом суперинтеллекте». Попавшие между молотом и наковальней, пользователи воспринимают ИИ как помощника в электронных таблицах и злодея из научной фантастики, в зависимости от того, какие аргументы доминируют в их ленте в тот день.
Почему Большие Технологии Тихо Поддерживают Узкий ИИ
Тихо, почти скромно, Большие Технологии уже выбрали сторону в войне «инструмент против угрозы» — и они выставляют счет за каждое обращение к API. Несмотря на все проповеди об AGI на конференциях, доходы поступают от узкого ИИ, который интегрируется в существующие рабочие процессы и решает надоедливые конкретные проблемы. Инвесторы не финансируют абстрактные идеи о сверхинтеллекте; они вкладывают средства в продукты, которые сокращают облачные расходы на 20% или увеличивают коэффициент конверсии на 3,7%.
Рынки высказались: они хотят специализированные API-ориентированные услуги, которые ощущаются как инфраструктура, а не как научная фантастика. Компании платят за модели, которые исключают личные данные из документов, суммируют контракты на 200 страниц или автоматически генерируют рекламные тексты на 15 языках. Это не игрушки для исследований; они поставляются в виде соглашений об уровне обслуживания, панелей управления и строк в системах закупок.
Бизнес OpenAI отражает этот сдвиг. ChatGPT привлекает внимание, но настоящие деньги лежат в API OpenAI, где GPT-4, специализированные варианты и встраивания обеспечивают: - Ботов для поддержки клиентов - Ассистентов по коду - Поиск и классификацию документов - Автоматизацию рабочих процессов
OpenAI не продает "прото-АГИ"; она продает токены, обрабатываемые за запрос, настроенные на узкие случаи использования.
Google придерживается той же стратегии. Google Cloud продвигает Vertex AI, модели Gemini и специализированные решения для: - Аналитики в колл-центрах - Прогнозирования спроса в розничной торговле - Оптимизации цепочки поставок - Классификации событий безопасности
Gemini позиционируется как универсальный ассистент, но команды по продажам говорят о стоимости за отклоненный запрос, а не о сознании.
Anthropic еще сильнее ориентируется на эту реальность. Claude 3 Opus, Sonnet и Haiku выходят как многоуровневая продуктовая линейка, четко сегментированная по задержке, стоимости и контекстному окну. Их предложение сосредоточено на надежности в корпоративных условиях — соблюдение политики, внутренний поиск знаний, процессы соблюдения норм — а не на обещании появления общей интеллигентности.
AGI все еще витает в воздухе как долгосрочная история бренда, своего рода теологическая конечная цель, которая оправдывает бюджеты на НИОКР сегодня. Но каждый квартальный отчет о прибылях и убытках или утечка презентации указывают в одном направлении: краткосрочные финансовые и практические стимулы сосредоточены вокруг узкоспециализированного, встроенного ИИ. Инструментализация побеждает, потому что она соответствует тому, как бизнес на самом деле приобретает технологии — поэтапно, предсказуемо и безжалостно привязано к KPI.
Что упускают пессимисты по поводу ИИ
Пессимисты в отношении ИИ не фантазируют о проблемах. Они указывают на реальные риски: биологическое оружие на основе моделей, автоматизированные атаки в большом масштабе, массовый надзор, потрясения на рынке труда и небольшое количество компаний, сосредоточивающих власть в триллионных моделях. Эти опасения уже отражены в политических документах NIST, Законе о ИИ ЕС и Рабочей группе по передовому ИИ Великобритании.
Где они ошибаются, так это в том, что рассматривают эти риски как односторонний конвейер к исчезновению, а не как набор инженерных и управленческих проблем. Мы уже смягчаем опасные технологии с помощью многоуровневых контролей: экспортные режимы для ядерных материалов, сертификация FAA для воздушных судов, испытания FDA для медикаментов. ИИ нуждается в аналогичном скучном, бюрократическом аппарате, а не в красной кнопке, которая останавливает исследования.
Узкий ИИ предоставляет регуляторам и инженерам то, что они понимают: ограниченные системы с измеримыми режимами сбоев. Модель, которая разрабатывает ингибиторы киназ, прокладывает маршруты для доставки грузовиков или выявляет мошеннические транзакции, обнаруживает конкретные уязвимости — отравление данных, враждебные подсказки, предвзятые обучающие наборы, которые команды могут тестировать, проводить атаки с целью выявления уязвимостей и сертифицировать. Это невозможно сделать с гипотетическим божественным разумом.
Итеративное развертывание систем, ориентированных на конкретные домены, также генерирует реальные данные, которых не хватает в абстрактных сценариях катастрофы. Больницы фиксируют ИИ-помощь в диагностике, банки отслеживают решения по кредитам, принятые на основе ИИ, а города проводят пилоты по оптимизации движения — всё это приводит к получению конкретных данных о уровнях ошибок, предвзятости и злоупотреблениях. Эти данные формируют стандарты, правила ответственности и модели страхования так, как это никогда не смогут сделать умозрительные эксперименты.
Призывы к мораторию на развитие звучат безопасно, но на самом деле замораживают нас с хрупкими и непрозрачными моделями сегодняшнего дня и отсутствующими рамками. Если прогресс останавливается, то прекращается и работа над интерпретируемостью моделей, водяными знаками, защищенными enclaves для вывода и надежными оценочными стандартами. Общество в конечном итоге получает черные ящики в свободной продаже и отсутствие институциональной силы для их управления.
Более рациональный путь выглядит так: - Внедрить узкий ИИ в медицину, логистику и технологии по борьбе с изменением климата - Оснащать развертывания строгим аудитом и отчетностью о происшествиях - Ужесточать регулирование по мере накопления возможностей и доказательств
Такой подход соответствует новым концепциям от групп, утверждающих, что ИИ в первую очередь является инструментом, а не ожидаемым божеством; смотрите, например, ИИ – это инструмент, а не угроза; Человек + ИИ > ИИ - LSAC. Остановка разработки оставляет сферу в неведении; контролируемый запуск дает нам преимущество.
Наша миссия: создавать инструменты, а не цифровых богов.
Наше будущее с ИИ не зависит от создания цифрового бога; оно зависит от разработки лучших инструментов. Рассматривайте модели как инструменты, а не оракулы, и их ценность становится очевидной: распознатели паттернов, помощники в написании кода, лабораторные ассистенты, планировщики логистики. Каждая система выполняет одну узкую задачу исключительно хорошо, и именно здесь она становится преобразующей.
Смена фокуса может изменить полемику о политике за одну ночь. Вместо того чтобы спорить о гипотетических суперинтеллектах, законодатели могли бы разработать стандарты для ИИ в медицинской диагностике, отслеживании выбросов или одобрении кредитов. Регуляторы уже делают это для самолетов, фармацевтики и ядерных установок; ИИ заслуживает такие же узкоспециальные правила, а не универсальную кнопку паники.
Разработчики несут аналогичную ответственность. Каждый раз, когда команда оптимизирует бенчмарк большой языковой модели вместо развертывания меньшей модели в клинике, складе или городской сети, накапливается упущенная выгода. Выбор не в том, чтобы «создать ИИ или ничего», а в следующем: - Системы первичной сортировки, которые сокращают время ожидания в отделениях неотложной помощи на 30–40% - Оптимизаторы сетей, которые снижают потребление энергии на уровне страны на несколько процентов - Модели цепочки поставок, которые уменьшают пищевые отходы на миллионы тонн
Общественное внимание тоже может меняться. Родители должны меньше заботиться о восстаниях роботов из научной фантастики и больше о том, использует ли школа их ребенка искусственный интеллект для выявления пробелов в обучении в реальном времени. Работники должны требовать помощь систем, которые объясняют решения, фиксируют происхождение данных и оставляют людей в курсе, а не непрозрачных черных ящиков, которые молча отказывают в пособиях или ипотеке.
Многообещающая траектория выглядит конкретной, а не мистической. Лекарства, разработанные с помощью ИИ, уже проходят клинические испытания менее чем за 24 месяца вместо 5–10 лет. Компьютерное зрение может отслеживать утечки метана на нефтяных месторождениях, в то время как обучение с подкреплением настраивает светофоры, чтобы сократить время в пути и выбросы в густонаселенных городах.
Прогресс и безопасность не находятся на противоположных сторонах весов. Более умные и узкие системы легче тестировать, сертифицировать и отзывать, чем монолитный "общий" разум. Наша задача должна оставаться жестко простой: создавать специализированный ИИ, который борется с раком, изменением климата и разрушением инфраструктуры — и рассматривать любые разговоры о цифровых богах как отвлечение от дела, которое действительно спасает жизни.
Часто задаваемые вопросы
Является ли ИИ инструментом или угрозой?
Множество экспертов утверждают, что ИИ следует рассматривать как мощный инструмент для решения конкретных задач, таких как разработка новых лекарств или оптимизация энергетических сетей, а не как экзистенциальную угрозу. Дебаты сосредоточены на том, чтобы фокусировать развитие на полезных, узких приложениях, в отличие от приостановки прогресса из-за опасений по поводу суперразума.
Какова разница между узким ИИ и общим ИИ (AGI)?
Узкий ИИ разработан для выполнения конкретной задачи, такой как вождение автомобиля или выявление заболеваний на сканах. Искусственный общий интеллект (AGI) — это теоретическая форма ИИ, обладающая интеллектом, похожим на человеческий, и способностью понимать, учиться и применять знания в широком диапазоне задач.
Почему самоуправляемые автомобили еще не стали массовым явлением, если технология уже существует?
Хотя основные возможности ИИ для автономных автомобилей в значительной степени уже существуют, широкое внедрение тормозится нетехническими барьерами. К ним относятся сложные государственные регуляции, неразрешенные вопросы страховой ответственности и огромные логистические сложности для масштабного развертывания.
Какие практические применения узкого ИИ существуют сегодня?
Узкий ИИ уже используется для широкого спектра полезных задач, включая ускорение открытия лекарств для лечения заболеваний, оптимизацию зелёных энергетических систем, управление дорожным движением в умных городах и поддержку автономного транспорта.