Искусственные интеллекты-генеральные директора уходят в тень. Вот почему.

Ведущие специалисты в области ИИ отменяют публичные выступления и, по сообщению, строят укрытия. Они знают, что скоро произойдет огромная волна социальных и экономических потрясений, и готовятся к последствиям.

Stork.AI
Hero image for: Искусственные интеллекты-генеральные директора уходят в тень. Вот почему.
💡

TL;DR / Key Takeaways

Ведущие специалисты в области ИИ отменяют публичные выступления и, по сообщению, строят укрытия. Они знают, что скоро произойдет огромная волна социальных и экономических потрясений, и готовятся к последствиям.

Тихая паника в硅谷

Самые громкие евангелисты ИИ внезапно стали труднонаходимыми. Эмад Мостак, отстранённый основатель Stability AI, в разговоре на подкасте неосмотрительно бросил гранату: он знает «многих CEOs ИИ», которые отменили все публичные выступления, напуганные тем, что он называет надвигающейся «новой волной антиискусственного интеллекта» уже в следующем году.

Он не говорил о пересмотре PR после неудачного новостного цикла. Он поставил это в контекст безопасности, как ответ на будущее, где ИИ перестанет быть новинкой и начнет массово угрожать белым воротничкам. За кулисами руководители рассматривают это как поверхность риска, а не как проблему брендинга.

Это тихое уединение сталкивается с общественнымNarrative, который по-прежнему воспринимает ИИ как блестящий инструмент для повышения производительности. На сцене ИИ — это «тупой член вашей команды», слегка чрезмерно усердный стажер, который составляет электронные письма и подводит итоги встреч. В частных меморандумах лидеры говорят о моделях, которые почти мгновенно превращаются из помощника в замену.

Дарио Амодеи из Anthropic уже озвучил некоторые цифры: искусственный интеллект может привести к безработице на уровне 10–20% в течение 1–5 лет, если внедрение пройдет неправильно. Внутри компаний создаются модели сценариев, где сотрудники начального уровня, такие как аналитики, программисты, юридические помощники и представители службы поддержки клиентов, исчезают из зарплатных ведомостей. Люди, создающие эти системы, рассматривают временные рамки, измеряемые продуктами, а не десятилетиями.

Тем временем миллиардеры-основатели тихо инвестируют в бункеры, укрепленные комплексы и удаленные ранчо. В книге Дугласа Рашкоффа «Выживание богатейших» описываются закрытые брифинги, на которых элита технологий одержима сценариями «событий» и тем, как сохранить лояльность своих служб безопасности, когда деньги перестают работать. ИИ занимает центральное место в этих фантазиях о коллапсе.

Публично генеральные директора компаний по производству ИИ по-прежнему выступают на конференциях и говорят о "ответственной инновации" и "дополнении, а не замене людей". В частном порядке они отказываются от участия в мероприятиях, наблюдая, как политические фигуры, такие как Чарли Кирк, используют недовольство по поводу ИИ в своих интересах, и как высокопрофильные генеральные директора становятся жертвами атак, не связанных с их деятельностью. Приоритет смещается от видимости к выживаемости.

Это основное противоречие бума искусственного интеллекта: чем громче разрастается шумиха, тем тише становятся его создатели. Люди, находящиеся ближе всего к фронтовым моделям, ведут себя так, будто тоже находятся в зоне опасности. Впервые в истории технологий создатели напоминают тех, кто готовится скрыться от собственного творения.

Точка невозврата 2026 года

Иллюстрация: Поворотный момент 2026 года
Иллюстрация: Поворотный момент 2026 года

Назовите это «эрой глупых стажеров» в ИИ. Современные крупные языковые модели в основном воспринимаются как слишком старшие новички: они составляют электронные письма, подводят итоги встреч и выдумывают решения для всего, что более сложно. Тревога внутри лабораторий ИИ связана с общей верой в то, что эта фаза резко закончится, как только системы перестанут быть инструментами и начнут действовать как автономные агенты, которые могут планировать, выполнять и перерабатывать задачи с минимальным надзором.

Исследователи описывают переход от «сопилота» к «коллеге, которому не нужно платить». Вместо того чтобы запрашивать чат-бота 50 раз в день, вы предоставляете агенту ИИ ваши CRM, кодовую базу и календарь и даете ему задачу увеличить доход на 10% или выпустить новую функцию. Этот агент связывает инструменты, вызывает API, нанимает подрядчиков и обращается к человеку только для получения одобрения.

Почему 2025–2026? Аппаратное обеспечение, масштаб моделей и потоки данных развиваются примерно с периодичностью 6–12 месяцев. Передовые лаборатории уже обучают модели класса с триллионом параметров; ещё два поколения могут привести к системам, которые сочетали бы рассуждения, память и использование инструментов достаточно хорошо, чтобы автономно управлять большими секторами офисных рабочих процессов.

Goldman Sachs оценил в 2023 году, что генеративный ИИ может автоматизировать эквивалент 300 миллионов полных рабочих мест по всему миру и затронуть две трети существующих ролей. В то время это казалось историей на десятилетие. Внутри компаний по разработке ИИ горизонты планирования незаметно сократились.

Генеральный директор Anthropic Дарио Амодеи недавно заявил Axios, что ИИ вполне может повысить уровень безработицы до 10-20% в течение 1-5 лет. Он обозначил это как реальный риск, а не научную фантастику: на первой линии под ударом находятся младшие аналитики, параюридические работники, представители службы поддержки и начинающие инженеры. Именно такие люди обычно первыми попадут под сокращение в корпоративной Америке.

Страшная часть заключается в форме кривой. Это не прогнозируемый плавный путь, как в промышленной революции, где рабочие медленно переквалифицируются. Внутренние эксперты ожидают порогового эффекта: модели остаются заметно неисправными, затем одно поколение пересекает качественный барьер, и вдруг один «сотрудник» ИИ заменяет пятерых людей в команде.

Рынки труда не реагируют на такие шоки легко. Западные экономики рассматривают 5% безработицу как норму, а 8-9% - как кризис. Резкий рост до 15% за несколько лет, сосредоточенный среди работников с высшим образованием, обременённых долгами, выглядит не столько как «сбой», сколько как испытание легитимности для правительств, банков и самой Большой Технологии.

Этот рубеж 2026 года заставляет CEO компаний в сфере ИИ замыкаться в себе. Они спешат создать агентов, которые его активируют, в то время как тихо готовятся к ответной реакции, когда все остальные осознают, что только что произошло.

Расшифровка менталитета миллиардера в бункере

Разговоры о бункерах в Силиконовой долине перестали быть шуткой много лет назад. Сэм Альтман с легкостью признал, что держит оружие, золото, йодид калия, антибиотики и участок земли в Биг Суре, готовые к чрезвычайным ситуациям, а также то, что он называет «подвалом», который очень напоминает бункер с высокой степенью защиты. Марк Цукерберг тихо превращает свой комплекс на 1,400 акров на Кауаи в автономную крепость с обширными подземными 시설ями и с ценой, по сообщениям, в сотни миллионов.

Илья Сутскевер поднимает тревогу на новый уровень. Прежде чем покинуть OpenAI, он, как сообщается, сказал: «Мы определенно построим бункер до того, как выпустим AGI», рассматривая физическое укрытие как часть дорожной карты продукта. Его новая компания, Safe Superintelligence Inc., существует с единственной целью: создать суперинтеллект и убедиться, что он не уничтожит мир.

Это не обычный косплей миллиардера-подготовленца. В своем репортаже «Выживание самых богатых» Дуглас Рашкофф описывает закрытые заседания, на которых ультрабогатые технологические лидеры одержимы «Событием» — универсальным термином для климатического коллапса, социального распада или сингулярности, управляемой ИИ. Их рабочая гипотеза: катастрофа неизбежна, но достаточно денег, охранных подрядчиков и закаленного бетона может купить выход.

Риск AGI прекрасно вписывается в этот взгляд на мир. Если вы верите, что небольшая группа компаний вскоре будет контролировать системы, умнее любого человека, вы также должны верить, что эти системы могут вызвать массовую безработицу, дестабилизировать демократии с помощью гипертаргетированной пропаганды или помочь в разработке биологического оружия. Удар по безработице в 10–20%, как описывает сценарий, предложенный Дарио Амодеем из Anthropic, означает миллионы разъярённых, безработных людей, ищущих кого-то, кого можно обвинить.

Бункеры становятся физическим воплощением этого страха. Они говорят, более откровенно, чем любые мемо о безопасности, о том, что внутри компании считают, что искусственный интеллект может пойти настолько наперекосяк, что им, возможно, потребуется буквально скрываться от последствий — будь то эти последствия в виде мятежной суперинтеллектуальности, продовольственных бунтов после сбоя в цепочке поставок или толп, яростных от того, что их рабочие места исчезли в битах графических процессоров. Чтобы понять, как быстро может нарастать этот гнев, прочитайте отчет Forbes «Искусственный интеллект разрушает рабочие места — а бывший исполнительный директор Google говорит, что CEO слишком».

Смотря на это вместе, одержимый стартап Сутскевера, укрепленные безопасные комнаты Алтмана и островная крепость Цукерберга образуют закономерность. Люди, наиболее близкие к передовым технологиям, не рассчитывают на гладкую посадку; они тихо заливают бетон на случай, если будущее, которое они строят, решит обернуться против них.

Нарастающая волна «ненависти к ИИ»

Прокрутите Twitter в течение пяти минут под любым хэштегом, связанным с ИИ, и настроение скорее кажется менее "классной новой игрушкой", а больше "цифровым арендодателем". Ответы на анонсы продуктов от OpenAI, Google и Meta звучат как ротация забастовки: "Ты забираешь мою работу", "Поздравляю с автоматизацией нас", "Наслаждайтесь своим бонусом, пока мы голодаем". Вирусные посты собирают сотни тысяч лайков, называя ИИ "плагиатом как услугой" или "угледобычей для графических процессоров".

Под шумом несколько тем повторяются с алгоритмической точностью. Люди в первую очередь боятся замены на работе: работники колл-центров, копирайтеры, иллюстраторы, помощники адвокатов, даже младшие инженеры наблюдают, как инструменты вроде ChatGPT и Midjourney поглощают «начальный» уровень их карьеры. Когда Дарио Амодеи предупреждает, что ИИ может привести к безработице на уровне 10–20% в течение 1–5 лет, эти показатели попадают в временные рамки, которые уже полны таблицами с увольнениями.

Девальвация креативности подстегивает вторую волну гнева. Художники публикуют бок о бок сравнения своих работ из обучающих наборов данных рядом с созданными ИИ подделками, называя это кражей. Писатели наблюдают, как SEO-мусор и спам от ИИ заполняют Amazon, Kindle и новостные агрегаторы, превращая человеческий труд в дешевое, бесконечное содержимое.

Затем возникает backlash по поводу климата и инфраструктуры. В социальных сетях распространяются графики потребления электроэнергии и воды дата-центрами, обвиняющие компании ИИ в том, что они сжигают мегаватты и истощают водоносные горизонты, чтобы их руководители могли демонстрировать разговорные чат-боты. Критики характеризуют крупные модели как «Биткойн 2.0»: колоссальные экологические затраты для спекулятивной выгоды, которая в основном достается акционерам.

Культурно ИИ трансформировался из причудливой новинки в незаметную угрозу. Для людей, вдали от технологического пузыря, ИИ теперь проявляется как: - Письмо о сокращении штата - Неработающий отдел поддержки клиентов - Школа, запрещающая инструменты, которые уже используют их дети

Этот сдвиг превращает генеральных директоров ИИ в мишени для нападок. Каждое выступление, подкаст или твит становятся целью гнева по поводу зарплат, аренды, климата и неравенства, существующего до появления ИИ, но теперь имеющего конкретное лицо и логотип для нацеливания.

Пришло время бел collars.

Иллюстрация: Кровавая баня белых воротничков пришла
Иллюстрация: Кровавая баня белых воротничков пришла

Работники офисов уже ощущают последствия. Компании по подбору персонала для колл-центров сообщают, что клиенты сокращают количество живых агентов на двузначные проценты, так как компании внедряют AI-чат-ботов, которые обрабатывают 60–80% входящих заявок, прежде чем к ним обращается человек. Банки, авиакомпании и гиганты электронной коммерции тихо рекламируют "поддержку с приоритетом AI", что обычно означает "меньше сотрудников на зарплате".

Служба поддержки клиентов — это канарейка в угольной шахте. В отчете Goldman Sachs за 2023 год было оценено, что генеративный ИИ может автоматизировать задачи, эквивалентные 300 миллионам рабочих мест на полную ставку по всему миру, причем офисная и административная поддержка находятся в числе наиболее уязвимых. Сенатский отчет о ИИ и рабочей силе предупреждал, что рутинные роли в телефонных и чатах сталкиваются с «быстрой сокращаемостью», а не с постепенной утратой, растянутой на десятилетия.

Копирайтеры и контент-маркетологи находятся под угрозой. Инсайдеры медиа и рекламы открыто говорят о том, что клиенты требуют сокращения бюджета для фрилансеров на 50–70% после внедрения таких инструментов, как ChatGPT и Midjourney. Один из CEOs маркетингового агентства описал, как заменил команду из 20 подрядчиков двумя редакторами, которые управляют кучей AI-подсказок и шаблонов.

Кодирование на начальном уровне, долгое время рекламировавшееся как безопасный путь к среднему классу, теперь кажется хрупким. Данные GitHub показывают, что Copilot может генерировать 40–60% нового кода на поддерживаемых языках, а крупные технологические компании реорганизуют команды вокруг "разработки с помощью ИИ", что позволяет старшим инженерам делать больше с меньшим количеством младших сотрудников. Несколько программных компаний тихо приостановили набор выпускников, одновременно увеличивая инвестиции в внутренние платформы по генерации кода.

Недавние увольнения в технологическом секторе — это не просто последствия «макроэкономических ветров». Meta, Google, Amazon и Microsoft объявили о сокращении десятков тысяч сотрудников с 2022 года, одновременно обещая огромные инвестиции в инфраструктуру ИИ и развитие моделей. Когда компании сокращают набор персонала, поддержку и среднее управление, увеличивая бюджеты на GPU, они сигнализируют о долгосрочной ставке на эффективность, управляемую ИИ, вместо увеличения численности сотрудников.

Оптимисты продолжают утверждать, что «искусственный интеллект создаст больше рабочих мест, чем уничтожит», но ранний отчет выглядит однобоко. Анализ Goldman Sachs действительно прогнозирует новые роли в управлении ИИ, инженерии и работе с данными — однако эти роли являются высококвалифицированными и специализированными, в отличие от миллионов офисных, сервисных и начальных профессиональных вакансий, которые сейчас под угрозой. Для уволенного сотрудника службы поддержки или копирайтера должность «инженера по запросам» не является реалистичным следующим шагом.

Данные с сайтов по поиску работы и отчеты о доходах показывают паттерн: компании используют искусственный интеллект для уменьшения численности сотрудников на нижних уровнях организационной структуры, а затем радуются увеличению продуктивности для акционеров. Обещанная волна новых высококачественных рабочих мест все еще не появилась даже в каком-либо обозримом масштабе по сравнению с сокращениями.

Корпоративная лестница рушится

Корпоративная жизнь раньше следовала предсказуемому сценарию: прогрессировать через годы низкоуровневой работы, накапливать опыт, а затем перейти к настоящему принятию решений. Искусственный интеллект разрушает первый акт. Когда модель класса GPT-4.1 составляет меморандум, подводит итоги встречи и пишет первую версию контракта, младшие сотрудники теряют рутинные задачи, которые тихо учили их тому, как на самом деле работает власть.

Консалтинг, право, финансы и СМИ все полагались на эту модель Apprenticeship. Аналитики первого года очищали данные и создавали презентации; младшие сотрудники занимались рецензированием документов; начинающие репортеры переписывали пресс-релизы. Теперь, согласно внутренним данным о внедрении в крупных фирмах, инструменты ИИ справляются с 60-80% этой «рутинной работы», оставляя новым сотрудникам на удивление слабые резюме и гораздо меньше повторений по основам.

Карьерные лестницы напоминали пирамиду: много новичков, меньше специалистов среднего уровня и узкий слой руководителей. Искусственный интеллект переворачивает это в песочные часы. Компании оставляют на вершине несколько экспертов в своей области, автоматизируют нижнюю часть и сжимают средний уровень за счет контрактников и работников на временной основе, которые никогда не накопят опыта, чтобы заменить сегодняшних лидеров.

Это поднимает неудобный вопрос: кто станет партнером, вице-президентом или главным редактором в 2035 году, если pipeline для начинающих исчезнет в 2026 году? Вы не можете продвигать то, чему никогда не учили. Поколение, которое никогда не проводило должной проверки, не устраняло ошибки в работающей системе в 3 часа ночи и никогда не сидело в комнате с сердитым клиентом, в конечном итоге будет призвано принимать решения на миллиарды долларов.

В краткосрочной перспективе финансовые директора ценят высокие маржи. В долгосрочной перспективе советы директоров наследуют организации с критическим дефицитом опытного человеческого liderazgo. Harvard Business Review уже фиксирует рост текучести руководителей в статьях, таких как Почему текучесть CEO растет в 2025 году, но настоящий кризис наступает, когда просто недостаточно проверенных в бою специалистов для продвижения.

Некоторые компании тихо признают, что они проводят разовую реализацию существующего опыта. Старшие сотрудники обучают модели, которые заменяют их собственных младших коллег, фиксируя свою институциональную память в векторных базах данных вместо людей. Как только эти старшие сотрудники выйдут на пенсию или устанут, компания будет полагаться на ИИ, который может подражать суждению, но никогда не испытывал на себе последствия ошибок.

'Нужен ли мне этот человек?'

Холодная математика теперь управляет бизнес-советами. Эмад Мостаки выражает это прямо: каждый руководитель вскоре спросит: «Нужен ли мне этот человек?», когда фронтирная модель сможет выполнять 80–90% работы за долю стоимости и без рисков, связанных с кадровыми вопросами.

В таблице AI-работник выглядит непревзойденно. Он работает круглосуточно, никогда не болеет, масштабируется от 1 до 10,000 копий мгновенно и стоит всего несколько центов до нескольких долларов в час за вызовы API, вместо $30–$70 за полнофункционального профессионала со среднем опытом.

Обязанности на человеческой стороне накапливаются: здравоохранение, налог на заработную плату, менеджеры, офисные площади, юридические риски и постоянная угроза текучести кадров. Для финансового директора, глядящего на строку, где один ИИ-агент может заменить троих сотрудников службы поддержки клиентов или двоих младших разработчиков, «этический» выбор уступает квартальному отчету о доходах.

Это не гипотетично. Колл-центры уже используют чат-ботов, которые обрабатывают 60–80% заявок до того, как их увидит человек. Маркетинговые команды тихо заменяют фрилансеров моделями перевод текста в изображение и текстовыми моделями; юридические фирмы используют ИИ для составления контрактов, над которыми первокурсники когда-то проводили ночи, пытаясь разобраться.

Как только ИИ-агенты смогут объединять инструменты, просматривать и выполнять рабочие процессы от начала до конца, вопрос изменится с «дополнить или заменить?» на:

  • 1Сколько людей мы держим для страховки и имиджа?
  • 2Какие роли абсолютно требуют юридической или моральной ответственности?
  • 3Как мы можем оправдать зарплату, если модель показывает в 10 раз большее производство?

Эта экономическая логика перестраивает отношения между работодателем и работником. Работники прекращают быть долгосрочными инвестициями и превращаются в «наследственную инфраструктуру», которая сохраняется для соблюдения регуляций, обеспечения безопасности бренда или потому, что технологии еще не достаточно развиты.

Когда эта логика масштабируется на миллионы рабочих мест, она становится двигателем волнений. Когда люди видят, что прибыль и производительность растут, в то время как зарплаты стагнируют, а возможности исчезают, гнев, который уже заметен в Twitter, перерастает во что-то более организованное — и гораздо труднее контролируемое.

Невозможная канатная дорога CEO

Иллюстрация: Невозможная канатная дорога CEO
Иллюстрация: Невозможная канатная дорога CEO

Руководители в сфере ИИ теперь действуют в парадоксе: чтобы победить, им нужно ускорять технологию, которая может сделать их общественными злодеями. Они привлекают миллиарды, запускают новые модели и обещают «прирост производительности», прекрасно осознавая, что эти приросты часто приводят к замораживанию найма, реорганизациям и тихим увольнениям в поддерживающих, маркетинговых и младших инженерных ролях.

Эта динамика создает новый вид исполнительного риска. Когда Дарио Амодеи предупреждает, что ИИ может привести к безработице на уровне 10–20% в течение 1–5 лет, он не просто прогнозирует макроэкономические данные; он фактически ставит мишень на тех, кто воспринимается как извлекающий выгоду из этого изменения. Люди, теряющие карьеры, не выражают гнев на абстрактные «рыночные силы» — они гневаются на конкретных людей.

Генеральные директоры компаний с искусственным интеллектом все больше осознают, что они — те самые лица. Их имена упоминаются в записях о сокращениях, на прямых эфирах ключевых докладов и в ярких инвестиционных презентациях, которые хвалят “эффективность численности рабочей силы”, в то время как тысячи офисных работников наблюдают за сжатием своих отраслей.

В такой обстановке личная безопасность перестает быть теоретической строкой в бюджете и становится ежедневным расчетом. Технические лидеры уже следят за тем, что происходит с политиками и официальными лицами в сфере общественного здравоохранения, которые становятся символами нежелательных перемен: доксинг, преследование, сваттинг и, в редких случаях, физические атаки.

Руководители в сфере ИИ теперь видят правдоподобный путь к тому, чтобы занять то же эмоциональное место в культуре. Они не просто создают приложения; их воспринимают как тех, кто тянет за ниточку, стирая будущие перспективы копирайтеров, параюристов и младших разработчиков за один цикл продукта.

Страх заключается не только в обобщенном «анти-технологическом» настроении. Это конкретная возможность того, что, поскольку ненависть к ИИ возрастает в Twitter и других местах, один CEO становится аватаром автоматизации так же, как один сенатор становится аватаром непопулярного закона. Такой тип персонализации вины делает конференции, панели фанатов и открытые сессии вопросов и ответов менее похожими на PR-мероприятия и более на риски для безопасности.

Так что низкий профиль начинает выглядеть не как паранойя, а скорее как протокол. Отмените университетский разговор. Пропустите фестивальную сцену. Замените открытые городские встречи на строго контролируемые трансляции в прямом эфире, заранее отобранные вопросы и корпоративные блоги, проверенные юридическими и охранными службами.

Уход в тень не замедляет модели; графические процессоры все еще работают в секретных дата-центрах. Что это делает, так это разделяет человека и машину — защищая принимающих решения от общества, которое все больше считает, что эти решения уничтожают его будущее.

Почему правительства не могут это остановить

Регулирование движется с legislative скоростью; ИИ движется на скорости часов GPU. Законодатели все еще спорят о том, что вообще означает искусственный интеллект, в то время как OpenAI, Google, Meta и Anthropic выпускают передовые модели каждые 6–12 месяцев. К тому времени, когда проект закона проходит через комитет, основная технология уже совершила скачок в следующую генерацию.

Государствам также не хватает базовой видимости. Многие из наиболее совершенных моделей работают за пределами API или в закрытых дата-центрах, а не на общественных сайтах, с которых могут извлекать данные регулирующие органы. Агентства, которые все еще испытывают трудности с аудитом банковских алгоритмов, теперь сталкиваются с непрозрачными, многомодальными системами, обученными на триллионах токенов.

Геополитика жестко ускоряет процесс. Любая страна, которая затормозит исследования в области ИИ, рискует уступить экономическую и военную мощь соперникам. Вашингтон обеспокоен крупномасштабным финансированием Пекином технологий ИИ и слежения; Пекин внимательно следит за американскими облачными провайдерами, производителями чипов и оборонными подрядчиками, которые внедряют ИИ везде, начиная от логистики и заканчивая оружием.

Ни одна крупная держава не хочет быть той, которая уступит первой. Попытки глобальной координации напоминают переговоры по ядерному разоружению без инструментов для верификации: ни один спутник не может видеть внутрь учебного процесса на частном кластере GPU. Даже экспортные ограничения на высококачественные чипы Nvidia только замедляют, но не останавливают настойчивые государства и корпорации.

Внутренняя политика еще больше сдвигает ситуацию. Крупные технологические компании теперь тратят десятки миллионов долларов в год на федеральное лоббирование только в США, соперничая с гигантами фармацевтики и энергетики. Эти лоббисты выступают за "основанные на риске" рамки, которые звучат ответственно, но оставляют достаточно места для быстрого развертывания новых моделей.

Законодатели сталкиваются с подвижной целью. Им необходимо регулировать все, начиная от: - Фундаментальных моделей - Контрольных точек с открытым исходным кодом - Агентных систем - Синтетических медиа

Каждый из них несет разные риски, от предвзятости и мошенничества до шоков на рынке труда и национальной безопасности. Слишком широкие правила рискуют криминализировать базовое программное обеспечение; узкие правила устаревают в течение года.

Результат: корпоративные лаборатории тихо устанавливают эффективную политику, решая, что строить, поставлять и открывать как исходный код. Советы директоров уже заменяют генеральных директоров, которые не могут справиться с этой ситуацией; см. Генеральные директора покидают свои посты с ускорением в июне 2025 года; советы директоров экспериментируют с временным руководством. В течение следующего десятилетия государственная политика в основном будет реагировать на направление развития ИИ, а не определять его.

Навигация в предстоящих изменениях

Тревожные работники знаний продолжают слышать две несовместимые истории: ИИ либо уничтожит их рабочие места, либо сделает их сверхчеловечно продуктивными. Оба варианта могут быть верными. Когда модель может составить контракт, разработать логотип и написать письмо для запуска за считанные минуты, вопрос перестаёт быть "Может ли она выполнять мою работу?" и превращается в "Сколько из нас всё еще нужно менеджеру?"

Выживание в этом мире не похоже на "научись программировать". Программирование — это именно то, что Языковые Модели уже «едят» на завтрак. То, что остается дефицитом, — это навыки, охватывающие неструктурированную реальность: формулирование проблем, оценка компромиссов и убеждение скептически настроенных людей в необходимости действий.

Критическое мышление перестает быть клише в резюме и становится защитным барьером. Любой может попросить ChatGPT предложить 10 идей; гораздо меньшим числом людей удается определить, какая из них выдержит пробу взаимодействия с юридическим отделом, финансовыми вопросами и недовольными клиентами. Приоритет отдается тем, кто может анализировать результаты работы ИИ, выявлять скрытые предположения и говорить: "Это выглядит plausibly, но приведет к сбоям в работе."

Комплексное решение проблем также поднимается по цепочке создания ценности. Искусственный интеллект может оптимизировать процессы внутри определённого контекста; он испытывает трудности, когда сам контекст неверен. Люди, которые могут пересмотреть рабочие процессы вокруг агентов ИИ — а не просто добавлять инструменты к устаревшим процессам — будут контролировать рычаги влияния, бюджеты и найм персонала.

Эмоциональный интеллект становится инфраструктурой. Бот может имитировать эмпатию, но не способен создать доверие внутри команды, которая только что наблюдала, как численность сотрудников сократилась на 30%. Руководители, которые могут честно говорить об автоматизации, переобучать людей и воспринимать общественный гнев, становятся столь же важными, как и сами модели.

Индивидуальной адаптации будет недостаточно. Если сценарий безработицы в 10-20% от Дарио Амодей произойдет, обществам понадобятся структурные ответы: универсальный базовый доход, субсидии на заработную плату или агрессивные гарантии трудоустройства. Эксперименты в таких местах, как Финляндия и Стоктон, Калифорния, показывают, что УБД улучшает психическое здоровье и стабильность, но они не были протестированы в масштабе эпохи ИИ.

Короткая рабочая неделя станет не просто маргинальной идеей, а предметом переговоров. Когда один работник с поддержкой ИИ сможет сделать то, что три человека делали в 2019 году, компаниям предстоит либо уволить двоих, либо сократить часы. 35-часовая рабочая неделя во Франции и пилотные проекты четырехдневной недели в Великобритании предлагают прототипы, но не схемы для экономики, насыщенной ИИ.

Под всем этим скрывается более сложный вопрос: кто получает выгоду. Если несколько компаний захватят большую часть прироста производительности от базовых моделей, мы получим мир с триллионными рыночными капитализациями, обесценившимися средними классами и сильно укрепленными ранчо на Каваи. Если же мы будем рассматривать ИИ как инфраструктуру — облагаемую налогами, регулируемую и широко разделяемую — у нас появится шанс на будущее, в котором исчезновение CEO будет иметь меньшее значение, чем системы, которые переживут их.

Часто задаваемые вопросы

Действительно ли ИИ-генеральные директора «исчезают» из общественной жизни?

Хотя они и не исчезают буквально, есть анекдотические свидетельства от таких фигур, как бывший CEO Stability AI Эмад Мостак, что многие лидеры в области ИИ отменяют свои публичные выступления, чтобы избежать превращения в мишени для растущего антиизма ИИ и общественного гнева по поводу потери рабочих мест.

Каково значение года 2026 в предсказаниях о ИИ?

Инсайдеры отрасли предполагают, что 2026 год может стать переломным моментом, когда модели ИИ превратятся из полезных помощников в автономных агентов, способных заменить целые офисные рабочие процессы, что приведет к значительным экономическим последствиям.

Почему, по сообщениям, технологические миллиардеры строят укрытия?

Наратив о 'бункерах' возникает из двух проблем: краткосрочные социальные волнения из-за массовой безработицы, вызванной ИИ, и долгосрочный экзистенциальный риск создания Искусственного Общего Интеллекта (AGO), который человечество не сможет контролировать.

Что вызывает общественное недовольство по поводу ИИ?

Ответная реакция питается страхами массового увольнения, ухудшением творческих областей, этическими вопросами относительно данных и предвзятости, а также общим ощущением, что ИИ в первую очередь приносит пользу небольшой группе состоятельных людей за счет более широкого населения.

Frequently Asked Questions

Действительно ли ИИ-генеральные директора «исчезают» из общественной жизни?
Хотя они и не исчезают буквально, есть анекдотические свидетельства от таких фигур, как бывший CEO Stability AI Эмад Мостак, что многие лидеры в области ИИ отменяют свои публичные выступления, чтобы избежать превращения в мишени для растущего антиизма ИИ и общественного гнева по поводу потери рабочих мест.
Каково значение года 2026 в предсказаниях о ИИ?
Инсайдеры отрасли предполагают, что 2026 год может стать переломным моментом, когда модели ИИ превратятся из полезных помощников в автономных агентов, способных заменить целые офисные рабочие процессы, что приведет к значительным экономическим последствиям.
Почему, по сообщениям, технологические миллиардеры строят укрытия?
Наратив о 'бункерах' возникает из двух проблем: краткосрочные социальные волнения из-за массовой безработицы, вызванной ИИ, и долгосрочный экзистенциальный риск создания Искусственного Общего Интеллекта , который человечество не сможет контролировать.
Что вызывает общественное недовольство по поводу ИИ?
Ответная реакция питается страхами массового увольнения, ухудшением творческих областей, этическими вопросами относительно данных и предвзятости, а также общим ощущением, что ИИ в первую очередь приносит пользу небольшой группе состоятельных людей за счет более широкого населения.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts