Грязная тайна Anthropic: ИИ для Уолл-Стрит

Лаборатория ИИ, основанная на безопасности, теперь создает инструменты для крупнейших игроков Уолл-стрит. Это не просто бизнес-ход — это знак того, что ИИ попадает в руки элиты.

Hero image for: Грязная тайна Anthropic: ИИ для Уолл-Стрит
💡

TL;DR / Key Takeaways

Лаборатория ИИ, основанная на безопасности, теперь создает инструменты для крупнейших игроков Уолл-стрит. Это не просто бизнес-ход — это знак того, что ИИ попадает в руки элиты.

Шокирующий новый друг «Безопасного» Дарлингa

Anthropic построила свою репутацию на конституционном ИИ, ориентированном на безопасность, который встраивает правила и ценности напрямую в свои модели. Публичная история компании сосредоточена на исследованиях по выравниванию, экзистенциальных рисках и предотвращении неуправляемых систем, которые могут превратиться в катастрофы уровня Скайнет. Теперь эта же лаборатория тихо запускает сложные финансовые инструменты для Уолл-Стрит, нацеливаясь на хедж-фонды, банки и количественные торговые компании, которые ежедневно перемещают триллионы долларов.

Ранние развертывания выходят далеко за пределы чат-бота, который объясняет отчеты о доходах. Anthropic предлагает системы, похожие на агентов, которые могут обрабатывать实时 рыночные данные, анализировать 10-К и помогать в строительстве моделей DCF и торговых стратегий на скорости машины. Внутренние демонстрации, по словам знакомых с продуктом людей, акцентируют внимание на автоматизации работы, традиционно выполняемой младшими аналитиками и кванти, именно тех специалистов, которые обеспечивают институциональной финансовой системе её конкурентное преимущество.

Этот поворот сталкивается в лоб с тщательно продуманным образом безопасности компании Anthropic. Компания, основанная в 2021 году после разрыва с OpenAI, теперь хочет получить свою долю в том же высокочастотном экосистеме охоты за альфой, которая помогла превратить машинное обучение в двигатель добычи ренты. Финансовый сектор – это область, где уже доминирует алгоритмическая непрозрачность, асимметричная информация и стимулы «работай быстро, ломай рынки».

Критики отмечают явное противоречие: лаборатория, предупреждающая о том, что ИИ усиливает системные риски, напрямую подключает свои модели к одному из самых критически важных секторов на Земле. Уолл-стрит не использует Claude для написания поэзии; она использует Claude для поиска базисных пунктов, опережения медленных игроков и устранения недостатков на уже хрупких рынках. Язык безопасности начинает звучать как брендинг, когда ваши крупнейшие клиенты находятся на торговых площадках.

Дэвид Шапиро, давний комментатор по вопросам выравнивания, запечатлел беспокойство в своем видео «Anthropic ПРОДАЁТСЯ Уолл-Стриту!». Он начинает с вопроса, действительно ли компания, «должная быть про безопасность», теперь «ложится в постель с Уолл-Стритом» и является ли это «признаком захвата элитами». Его формулировка проникает сквозь тщательно продуманную PR-стратегию Anthropic и напрямую ставит основной вопрос: просто ли любимец безопасности решил, что, когда деньги становятся достаточно большими, все эти разговоры о выравнивании могут сосуществовать с созданием следующего поколения количественной инфраструктуры?

От спасения человечества к максимизации прибыли?

Иллюстрация: От спасения человечества к максимизации прибыли?
Иллюстрация: От спасения человечества к максимизации прибыли?

Защитники Anthropic имеют готовый ответ на поворот Уолл-Стрит: когда вы «обеспечены безопасностью», все, что помогает держать Скайнет на расстоянии, становится морально приемлемым. В этой мировоззренческой модели сотрудничество с хедж-фондами и банками не считается предательством; это необходимый компромисс, пока он финансирует исследования по согласованию и позволяет Anthropic участвовать в обсуждении настоящих решений по развертыванию ИИ. Если вы искренне верите, что несогласованный ИИ может погубить миллиарды, тогда направление ваших моделей через Goldman Sachs выглядит как незначительная ошибка в космическом балансе.

Эта логика приводит к резкому, почти карикатурному выбору: киберпанковский ад или исчезновение. Абсолютисты безопасности утверждают, что “киберпанковское будущеe” — корпорации с ИИ, милитаризированные правительства, повсеместный биометрический контроль, полная финансовая автоматизация — уродливо, но терпимо. То, что недопустимо, по их словам, — это мир, где какая-то несогласованная система станет полностью Скайнетом и уничтожит человечество, потому что «хорошие парни» отказались работать с недостойными партнерами.

Тем не менее, киберпанковский сценарий больше не существует только в концепт-артах научной фантастики. Искусственный интеллект уже управляет: - Высокочастотной торговлей и финансовым арбитражем - Прогностической полицией и пограничным наблюдением - Алгоритмическим управлением, которое выжимает из работников каждую минуту

Подключите самые мощные модели Anthropic к этому стеку, и вы ускорите траекторию концентрации, а не освобождения.

Таким образом, вопрос перестаёт быть абстрактной философией и начинает звучать как корпоративная стратегия: это принципиальный моральный компромисс или удобное оправдание для стремления к власти и прибыли? Риторика безопасности ставит сделки на Уолл-стрит в защиту от катастрофы; каптаблицы и корпоративные контракты намекают на что-то ближе к элитному согласованию. Когда те же модели, которые могли бы помочь в климатической науке или в ответе на пандемию, настраиваются в первую очередь для количественных торговых подразделений, приоритеты говорят громче, чем блоги.

Anthropic продолжает продвигать Claude как инструмент "для всех", демократизирующую силу на благо всеобщего блага. За кулисами реальность соответствует описанию Дэвида Шапиро о захвате элитами: стратифицированный доступ, индивидуальные функции для клиентов из финансового и оборонного секторов и влияние на регуляцию, которое закрепляет позиции действующих игроков. Разрыв между публичной миссией и частным использованием продолжает расширяться, и каждое новое интегрирование на Уолл-стрит отдаляет обещание Anthropic "для всех" от реальности пиар-фантазий.

Игровая книга власти: Что такое 'элитное захватывание'?

Власть не просто накапливает деньги; она накапливает новые инструменты. Элитный захват описывает момент, когда технология, приходящая, завернутая в утопическую риторику, тихо направляет свои основные выгоды к небольшой, хорошо связанной группе — корпоративным гигантам, финансистам и государственным учреждениям безопасности — в то время как остальные получают лишь рекламные слоганы и ограниченный доступ.

Железные дороги в 19 веке обещали связать страны и открыть рынки для всех. Вместо этого небольшая группа баронов использовала контроль над путями и тарифами на грузоперевозки, чтобы подавить конкурентов и диктовать, кто мог участвовать в торговле. Законодателям в конце концов пришлось изобрести антимонопольное законодательство, чтобы не дать системе застыть в состоянии постоянного монополизма.

Ранняя коммерческая риторика интернета 1990-х годов продавала историю децентрализации и инноваций без разрешений. Два десятка лет спустя несколько платформ — Google, Amazon, Meta, Apple — доминируют в поиске, покупках, рекламе и мобильном распространении, забирая свою долю почти от каждой транзакции и потока внимания. Тот же самый паттерн проявляется многократно: открытая территория, быстрая консолидация, затем захват регулирования.

Элитный захват следует узнаваемой стратегии: - Контроль над узкими местами инфраструктуры (железнодорожные линии, волоконно-оптические линии, центры обработки данных, чипы) - Вертикальная интеграция по всей цепочке - Привилегированный доступ и цены для крупных финансовых и государственных клиентов - Сильное влияние на правила, регулирующие остальных

Искусственный интеллект теперь находится точно в этой опасной зоне. Обучение передовых моделей уже требует миллиардов долларов на вычисления, сделки с собственными данными и контракты с облачными провайдерами, которые могут подписать лишь несколько компаний. Существуют публичные или открытые альтернативы, но они работают на более мелких масштабах и уступают по возможностям, что напоминает, как «независимые» провайдеры услуг Интернета уступили место телекоммуникационным гигантам.

С этой точки зрения тихий переход Anthropic к высококачественным финансовым инструментам для Уолл-стрит нельзя считать изолированным бизнес-решением; это лишь один из множества факторов в широкой истории консолидации. Сообщения компании на официальном сайте Anthropic сопутствуют этой новой реальности, и именно в этом напряжении решаются ставки на будущее ИИ.

Шесть тревожных знаков, что ИИ захвачен.

Контроль — это первый признак. Когда небольшая группа компаний владеет узкими местами — современными чипами, гипермасштабными облаками, дата-центрами и дешёвой энергией — все остальные арендуют реальность у них. Обучение передовой модели уже обходится в сотни миллионов долларов; одна только эта цена исключает большинство университетов, стартапов и государственных учреждений из игры.

Вертикальная интеграция усиливает давление. Теперь одни и те же компании стремятся владеть каждым уровнем стека: проектированием кремния, облачными платформами, фундаментальными моделями, магазинами приложений и пользовательскими интерфейсами. Дата-центры под брендом Musk компании X.ai, комплексная AI "платформа" от Nvidia и гипермасштабные компании, которые объединяют модели с собственными инструментами, все стремятся к миру, где смена поставщиков становится практически невозможной.

Стратифицированный доступ — это когда иерархия становится явной. Наиболее мощные и высококонтекстные модели работают за закрытыми дверями для оборонных подрядчиков, хедж-фондов и мегабанков, в то время как общественность получает ограниченные, безопасные версии. Даже OpenAI признала, что удерживает свои самые сильные системы от широкого выпуска, ссылаясь на ограничения по вычислительным ресурсам; точка зрения Шапиро заключается в том, что эти ограничения mysteriously исчезают, когда заключается контракт на $200 миллионов в области обороны.

Регуляторное и нарративное влияние укрепляют эту власть. Приграничные лаборатории помогают разрабатывать правила, которые их регулируют, а затем появляются перед Конгрессом или ЕС как нейтральные «эксперты». Когда Сэм Алтман может пройти от слушания в Сенате к частному ужину с законодателями, или когда руководители Anthropic информируют регуляторов о «ответственном масштабировании», история об экзистенциальном риске становится частью лоббистской схемы, которая удобно исключает меньших конкурентов.

Оптимизация на основе стремления к ренте проявляется в тех сферах, где на самом деле применяется ИИ. Вместо того чтобы в первую очередь заниматься лечением рака, большие деньги направляются в: - Высокочастотную торговлю и финансовый арбитраж - Сверхцелеустремленную рекламу и взлом вовлеченности - Автоматизацию труда и алгоритмическое управление

Эти сценарии использования не так сильно расширяют экономический пирог, сколько перераспределяют его вверх, превращая ИИ в платный пункт для каждой транзакции, клика и задания.

Недостаточно мощные общественные альтернативы дополняют картину. Открытые модели, такие как Stable Diffusion или производные LLaMA, существуют, но они значительно уступают закрытым системам по масштабам, объему обучающих данных и бюджету на вывод. Без государственной поддержки вычислительных мощностей, общей инфраструктуры данных или серьезного финансирования «общественный ИИ» рискует превратиться в цифровой аналог обветшалой библиотеки, расположенной через дорогу от сверкающего частного исследовательского парка.

Невидимые цепи: Инфраструктура контроля

Иллюстрация: Невидимые цепи: Инфраструктура контроля
Иллюстрация: Невидимые цепи: Инфраструктура контроля

Инфраструктура — это место, где возвышенная риторика ИИ о открытости сталкивается с суровой экономической реальностью. Небольшая группа компаний владеет физической инфраструктурой, которую все остальные должны арендовать. Этот первый узкое место — кто контролирует вычислительные мощности — определяет, кто вообще может участвовать.

Начните с облака. AWS, Azure и Google Cloud контролируют примерно 65% мирового рынка облачных услуг, согласно большинству оценок аналитиков. Если вы хотите обучать или разворачивать серьезные модели, скорее всего, вы платите одному из этих трех воротил за каждый час использования GPU.

Спуститесь на уровень ниже, и захват усиливается. TSMC производит около 90% самых продвинутых чипов в мире, передовых техпроцессов, которые питают кластеры для обучения ИИ, гипермасштабные дата-центры и системы высокочастотной торговли на Уолл-Стрит. Если TSMC заболевает, геополитика, землетрясения, экспортные ограничения — вся экосистема ИИ оказывается в тяжелом состоянии.

Затем следует Nvidia, которая фактически контролирует уровень ускорителей. Nvidia владеет почти 90% используемых сегодня ИИ-ускорителей, от H100 в передовых лабораториях до A100, тихо обрабатывающих модели риска в хедж-фондах. Ее программный стек CUDA и проприетарные сетевые технологии превращают сырые чипы в экосистему, из которой конкурентам трудно выбраться.

Экономисты называют эту структуру естественной монополией: рынки, где огромные фиксированные затраты и эффекты сети толкают всех к нескольким доминирующим поставщикам. Никакой закон не запрещает Nvidia быть стандартным акселератором, или TSMC — единственным жизнеспособным предприятием по производству чипов с нормой 3 нм. Физика производства полупроводников и капитальные затраты на гипермасштабное облако просто наказывают меньших участников, отправляя их в неактуальность.

Это важно, потому что «конкуренция» в ИИ больше не сводится к тому, у кого самый умный алгоритм в репозитории GitHub. Речь идет о том, кто сможет обеспечить десятки тысяч GPU, приоритетный доступ к современным узлам TSMC и выгодные долгосрочные контракты с AWS, Azure или Google Cloud. Без этого ваша прорывная модель — это лишь демо, а не продукт.

Когда Anthropic разрабатывает инструменты для Уолл-Стрит, она делает это на аппаратной платформе, уже захваченной микроскопическим клубом. Доступ к этой платформе является истинным препятствием — и настоящей незримой цепью — запирающей всех остальных.

300 миллиардов долларов: рва, который строят крупные технологические компании

Капитал теперь выступает в качестве самого острого инструмента захвата элит в области ИИ. Тот, кто сможет вложить больше всего средств в чипы, дата-центры и таланты, устанавливает правила для всех остальных. В 2023 году крупные технологические компании тихо финансировали будущее: по некоторым оценкам, крупные платформы обеспечили примерно 67% от всего финансирования стартапов в области генеративного ИИ, превращая «поддержку экосистемы» в зависимую цепочку.

Стартапы позиционируют себя как разрушители рынка, но их каптаблицы рассказывают другую историю. Когда Microsoft, Google, Amazon и Nvidia пишут основные чеки, они не просто покупают долю, они получают влияние над дорожными картами продуктов, выбором инфраструктуры и теми, кто получает премиум-доступ к передовым моделям. Зависимость становится структурной, а не временной.

Теперь давайте посмотрим на 2025 год, когда прогнозы в области промышленности предполагают около 300 миллиардов долларов на затраты, связанные с ИИ, за один год. В это число входят гипермасштабные центры обработки данных, кластеры GPU, подводные кабели и энергетическая инфраструктура, необходимая для их работы. Для сравнения, 300 миллиардов долларов сопоставимы или превышают ежегодный ВВП таких стран, как Чили, Пакистан или Финляндия.

Ни один университет, некоммерческая лаборатория или небольшое государство не могут достоверно сопоставиться с такой скоростью расхода средств. Хорошо финансируемый академический консорциум может собрать несколько сотен миллионов долларов за несколько лет; для крупных технологических компаний это воспринимается как округление в рамках одного контракта на GPU. В результате образуется капиталоводная преграда такой ширины, что «открытые альтернативы» существуют в основном как брендинг, а не как равные соперники.

Этот волна трат не только покупает оборудование; она приобретает власть формировать повестку. Тот, кто владеет инфраструктурой ИИ на сумму 300 миллиардов долларов, может решить: - Какие языки и регионы получат качественные модели - Какие отрасли получат индивидуально подобранные инструменты - Каким регуляторам будет оказана «помощь» в разработке правил

Освещение в таких изданиях, как Financial Times, представляет это как гонку за инновациями, но структура скорее напоминает ограду. Когда handful компаний контролируют капитал, элитный захват перестает быть риском и начинает выглядеть как стандартная операционная система для ИИ.

Создание своих собственных правил: Поглощение управления

Регуляторная власть не возникает в вакууме; финансовое и структурное превосходство прямо преобразуется в политическое влияние через регуляторный захват. Агентства, которые должны контролировать ИИ, в конечном итоге получают указания от компаний, которые они регулируют, поскольку эти фирмы контролируют экспертизу, кадровый резерв и зачастую восприятие финансирования, которое оправдывает мягкие правила.

В Вашингтоне и Брюсселе политика в области ИИ превратилась в разговор только для избранных, где постоянно появляются одни и те же полдюжины генеральных директоров. Тур Сэма Альтмана по Конгрессу задал стандарт: часы частных брифингов, повторяющиеся слушания и прямой доступ, с которым не может соперничать ни один профсоюз или НПО по вопросам конфиденциальности.

Законодатели в США и Европе теперь обращаются к "передовым лабораториям" в качестве основных консультантов по вопросам безопасности ИИ и конкуренции. Когда сотрудники не понимают вес моделей, графические процессоры или базовые модели, они обращаются в Anthropic, OpenAI, Google или Meta — и эти компании с радостью разрабатывают правила, которым их позже попросят подчиняться.

Это не гипотетическое расхождение в доступе. Во время переговоров по акту о ИИ в ЕС, как сообщается, представители отрасли подали тысячи страниц поправок, многие из которых были скопированы в компромиссные тексты, в то время как организации гражданского общества испытывали трудности с получением времени для встреч или поддержкой перевода для своих предложений.

Саммит по безопасности ИИ в Великобритании, проходивший в Блетчли-Парке, явно продемонстрировал дисбаланс. Из примерно 100 приглашенных организаций значительная доля была представлена корпорациями или институтами, поддерживаемыми промышленностью, в то время как профсоюзы, рабочие кооперативы и grassroots-группы по защите цифровых прав занимали лишь небольшой сегмент аудитории.

Правительства представили саммит как глобальный демократический диалог, но повестка дня была сосредоточена на том, о чем уже хотели говорить передовые корпорации: оценка моделей, пороги вычислений и добровольные обязательства по безопасности, которые закрепляют сегодняшних гигантов как постоянных хранителей "ответственного" ИИ.

Вот где начинает действовать захват нарратива. Завоевав подиумы, пресс-брифинги и закрытые круглые столы, эти компании определяют, о чем на самом деле идет речь в ИИ — экзистенциальный риск, бунтующие системы и научно-фантастические сценарии с Скайнетом — в то время как такие вопросы, как алгоритмическое похищение зарплаты или оценка за выселение, отходят на второй план.

Когда экзистенциальный риск захватывает кислород, текущие ущербы становятся предметом обсуждения. Предвзятость в кредитовании, автоматизированное разрушение профсоюзов и массовая замена белых воротничков выглядят как второстепенные проблемы, а не как основные вопросы о том, кому служит ИИ и кто за это платит.

Звук тишины: чего не хватает в буме

Иллюстрация: Звук тишины: чего не хватает в подъеме
Иллюстрация: Звук тишины: чего не хватает в подъеме

Тишина может быть данными. Когда вы отдаляетесь от заголовков о гонке за ИИ, тихие пробелы в истории говорят больше о том, для кого на самом деле предназначена эта технология, чем любое триумфальное мероприятие или выступление с ключевой речью.

Начните с инфраструктуры. Несмотря на всю риторику о том, что ИИ «как электричество», публичного аналога электросети не существует. Пилотный проект Национального ресурсного исследования ИИ США (NIRR) имеет предложенный шестилетний бюджет, который аналитики оценивают в несколько миллиардов долларов, в то время как Meta, по сообщениям, тратит такие суммы на ГПУ всего за один год, чтобы поддерживать свои собственные модели.

Эта асимметрия имеет значение. Государственное финансирование вычислительных мощностей остается лишь округлением рядом с частными инвестициями в ИИ, измеряемыми десятками миллиардов от Microsoft, Google, Amazon и Nvidia. Если вы университетская лаборатория, гражданская организация или городской орган власти, вы фактически умоляете о куске от тех же облаков, которые продают приоритетный доступ хедж-фондам и оборонным подрядчикам.

Управление выглядит так же однобоко. Советы директоров Anthropic, OpenAI, Google DeepMind и xAI состоят из инвесторов, основателей и бывших регуляторов, но в них нет ни одного избранного рабочего представителя, делегата сообщества или независимого директора гражданского общества. Люди, которые больше всего подвержены увольнениям из-за ИИ, слежке и дезинформации, не имеют никакого формального голоса в том, как внедряются передовые системы.

Не хватает также серьезных экспериментов в совместном управлении. Ни одна крупная лаборатория не создала обязательную вето для затронутых сообществ, рабочих советов с контролем над решениями о развертывании или городских наблюдательных советов с доступом к моделям аудита. Вместо этого «безопасность» существует внутри внутренних красных команд и консультативных советов, которые могут быть поблагодарены в блогах и проигнорированы в советах директоров.

Затем есть финансовая архитектура, тихо разработанная за закрытыми дверями. Якобы финансовый директор OpenAI предложил идею явных государственных гарантий для передового ИИ — публичные гарантии, если что-то пойдет не так, частный захват выгоды, если все пройдет успешно. Это классический пример «социализация рисков, приватизация прибыли», та же логика, которая превратила крах субстандартных ипотечных кредитов в 2008 году в спасение за счет налогоплательщиков.

В совокупности эти отсутствия образуют определённый шаблон. Отсутствие инфраструктуры общегосударственного масштаба, отсутствие совместного управления и ранние призывы к государственной поддержке страховки для частных ставок всё указывает на одно направление: ИИ, построенный как критическая система, принадлежащая и управляемая узкой, хорошо капитализированной элитой.

Является ли «безопасность ИИ» просто троянским конем?

Самые ярые защитники Anthropic настаивают на том, что продажа высококачественных моделей количественным аналитикам Уолл-Стрит, хедж-фондам и оборонным подрядчикам является необходимым злом на пути к «выравниванию». Это провокационное ядро критики Дэвида Шапиро: разговоры о долгосрочных экзистенциальных рисках функционируют как моральный банкетный чек для захвата власти в краткосрочной перспективе. Если ты убедишь себя, что Скайнет приближается, почти любое партнерство начинает выглядеть как ответственное управление, а не захват.

Эффективные альтруисты и рационалисты в таких лабораториях, как Anthropic, рассматривают свою работу как настоящий проект выживания. В этом мышлении заключение сделок с военными, разведывательными агентствами и крупнейшими фондами на Уолл-стрит становится не компромиссом, а жертвой ради большего блага. Они утверждают, что киберпанковская дистопия слежки всё же лучше, чем максимизатор скрепок, уничтожающий человечество.

Этот взгляд на мир тихо переписывает этику развертывания ИИ. Как только вы примите, что «мы единственные, кто может остановить Скайнет», тогда: - Эксклюзивные контракты с правительствами становятся «сдерживанием» - Привилегированный доступ для мегабанков становится «тестированием рисков» - Секретность и закрытые модели становятся «мерами безопасности»

Все это также способствует укреплению положения действующих лиц, контролирующих финансовые ресурсы.

Контроль над нарративом безопасности затем превращается в политическое оружие. Передовые лаборатории предупреждают о ненадежных моделях с открытым исходным кодом, биоопасности и экстракции моделей, а затем предлагают правила безопасности, которые удобно требуют миллиардные вычислительные кластеры, команды по тестированию на уязвимости и департаменты соблюдения норм. Стартапы, университеты и публичные лаборатории не могут преодолеть этот барьер; гиперскейлеры и передовые лаборатории уже справляются с этим.

Вы можете увидеть контуры в призывах к лицензированию режимов, связанных с порогами FLOP, обязательному мониторингу тренировочных запусков и централизованной отчетности о происшествиях для проверенных правительством организаций. На бумаге эти меры нацелены на «границы» систем. На практике они запирают эти границы внутри небольшого клуба игроков, которые могут себе позволить аудиты, юристов и индивидуальные кремниевые чипы. Безопасность становится рвом, а не гарантией.

Элиты, выступающие за безопасность, часто представляют компромисс в бинарном виде: принять строго контролируемый, корпоративный доминирующий ландшафт ИИ или рисковать вымиранием. Такое представление игнорирует третий вариант: демократически управляемую, публично подотчетную экосистему ИИ с сильной защитой труда, антимонопольным контролем и реальным доступом к вычислениям. Работа, подобная Anthropic Research, демонстрирует техническое согласование, но кто владеет и управляет этими согласованными системами остается политическим выбором, а не законом физики.

Ваш ход: Можем ли мы вернуть обещание ИИ?

Поворот Anthropic на Уолл-Стрит выявляет, насколько сосредоточена мощь ИИ, но также ясно показывает, откуда может исходить противодавление. Проекты с открытым исходным кодом, такие как Llama 3, Mistral и Stable Diffusion, доказывают, что для создания качественных систем не требуется оценка в 300 миллиардов долларов и гипермасштабный дата-центр. Вы можете доработать модель объемом 7-13 миллиардов параметров на одном высокопроизводительном GPU и создать что-то полезное.

Открытый исходный код по-прежнему сталкивается с жесткими ограничениями. Обучение передовых моделей требует десятков тысяч Nvidia H100, мегаватт энергии и таких площадей дата-центров, которые могут позволить себе только Amazon, Microsoft, Google и их ближайшие друзья. Даже самая радикальная модель с открытыми весами все еще арендует время на чужих серверах.

Настоящий плюрализм в ИИ требует публичных вычислений, которые соперничают с частными облаками. Это означает национальные или региональные суперкомпьютерные центры, специально предназначенные для академических лабораторий, некоммерческих организаций, стартапов и муниципалитетов, а не только для оборонных подрядчиков и компаний из списка Fortune 100. Представьте себе «общественную библиотеку», но для TPU и GPU, с прозрачными правилами распределения и обязательной публикацией результатов.

Правительства уже тратят сотни миллиардов на цифровую инфраструктуру; перераспределение даже 5-10% в пользу общих ИИ-стеков имело бы значение. Государственные исследовательские агентства могли бы финансировать открытые обучающие сессии, требовать открытой документации по данным и поддерживать команды экспертов, которые тщательно анализируют базовые модели, как это делают исследователи безопасности с операционными системами. Без этого «ИИ для всех» остается лишь слоганом, прикрепленным к счету за облачные услуги.

Индивидуальные пользователи не беспомощные наблюдатели. Вы можете:

  • 1Поддерживайте группы по защите цифровых прав, такие как EFF, Fight for the Future и AlgorithmWatch, которые отслеживают злоупотребления в области ИИ и выступают против захвата регуляторов.
  • 2Напишите электронное письмо или позвоните законодателям с требованием раскрыть информацию о встречах по лоббированию ИИ, субсидиях на вычисления и государственных контрактах на ИИ.
  • 3Поддерживайте открытые инструменты с помощью вашего использования, отчетов об ошибках и пожертвований, вместо того чтобы полагаться на то, что предлагает ваш облачный провайдер.

Критическое обсуждение тоже имеет значение. Спросите у поставщиков, кто владеет вашими данными, кто получает ранний доступ к премиум-моделям и что происходит, когда деньги на субсидии заканчиваются. Спросите у друзей и коллег, кто на самом деле получает пользу от "продуктивности ИИ" на их работе и кто принимает на себя риски. Восстановление обещания ИИ начинается с отказа притворяться, что версия Уолл-стрита — это единственное возможное будущее.

Часто задаваемые вопросы

Что такое 'элитный захват' в контексте ИИ?

Элитный захват относится к процессу, при котором развитие, преимущества и управление технологиями искусственного интеллекта сосредоточиваются в руках небольшой группы мощных корпораций, инвесторов и государственных организаций, а не служат общественному благу.

Почему компания Anthropic, занимающаяся безопасностью ИИ, сотрудничает с Уолл-Стрит?

Критики утверждают, что это признак захвата элитами, когда финансовые стимулы и потребность в капитале затмевают изначальную миссию. Защитники компании могут заявить, что работа в рамках мощных систем необходима для безопасного направления развития ИИ и обеспечения ресурсов для конкуренции.

Каковы основные признаки централизации ИИ?

Ключевыми признаками являются контроль над важной инфраструктурой (микропроцессорами, облачными дата-центрами) несколькими компаниями, вертикальная интеграция, предпочтительный доступ для высокоплатежеспособных клиентов и доминирующее влияние корпораций на государственное регулирование.

Может ли open-source ИИ конкурировать с такими компаниями, как Anthropic и OpenAI?

Хотя модели с открытым исходным кодом быстро развиваются, они сталкиваются с серьезными препятствиями. Часто они отстают от передовых моделей и требуют дорогостоящего оборудования, что усиливает доминирование крупных корпораций, контролирующих базовую инфраструктуру.

Frequently Asked Questions

От спасения человечества к максимизации прибыли?
See article for details.
Игровая книга власти: Что такое 'элитное захватывание'?
Власть не просто накапливает деньги; она накапливает новые инструменты. Элитный захват описывает момент, когда технология, приходящая, завернутая в утопическую риторику, тихо направляет свои основные выгоды к небольшой, хорошо связанной группе — корпоративным гигантам, финансистам и государственным учреждениям безопасности — в то время как остальные получают лишь рекламные слоганы и ограниченный доступ.
Является ли «безопасность ИИ» просто троянским конем?
Самые ярые защитники Anthropic настаивают на том, что продажа высококачественных моделей количественным аналитикам Уолл-Стрит, хедж-фондам и оборонным подрядчикам является необходимым злом на пути к «выравниванию». Это провокационное ядро критики Дэвида Шапиро: разговоры о долгосрочных экзистенциальных рисках функционируют как моральный банкетный чек для захвата власти в краткосрочной перспективе. Если ты убедишь себя, что Скайнет приближается, почти любое партнерство начинает выглядеть как ответственное управление, а не захват.
Ваш ход: Можем ли мы вернуть обещание ИИ?
Поворот Anthropic на Уолл-Стрит выявляет, насколько сосредоточена мощь ИИ, но также ясно показывает, откуда может исходить противодавление. Проекты с открытым исходным кодом, такие как Llama 3, Mistral и Stable Diffusion, доказывают, что для создания качественных систем не требуется оценка в 300 миллиардов долларов и гипермасштабный дата-центр. Вы можете доработать модель объемом 7-13 миллиардов параметров на одном высокопроизводительном GPU и создать что-то полезное.
Что такое 'элитный захват' в контексте ИИ?
Элитный захват относится к процессу, при котором развитие, преимущества и управление технологиями искусственного интеллекта сосредоточиваются в руках небольшой группы мощных корпораций, инвесторов и государственных организаций, а не служат общественному благу.
Почему компания Anthropic, занимающаяся безопасностью ИИ, сотрудничает с Уолл-Стрит?
Критики утверждают, что это признак захвата элитами, когда финансовые стимулы и потребность в капитале затмевают изначальную миссию. Защитники компании могут заявить, что работа в рамках мощных систем необходима для безопасного направления развития ИИ и обеспечения ресурсов для конкуренции.
Каковы основные признаки централизации ИИ?
Ключевыми признаками являются контроль над важной инфраструктурой несколькими компаниями, вертикальная интеграция, предпочтительный доступ для высокоплатежеспособных клиентов и доминирующее влияние корпораций на государственное регулирование.
Может ли open-source ИИ конкурировать с такими компаниями, как Anthropic и OpenAI?
Хотя модели с открытым исходным кодом быстро развиваются, они сталкиваются с серьезными препятствиями. Часто они отстают от передовых моделей и требуют дорогостоящего оборудования, что усиливает доминирование крупных корпораций, контролирующих базовую инфраструктуру.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts