TL;DR / Key Takeaways
Новая панель искусственного интеллекта: почему эти голоса важны сейчас
Forward Future тихо превратился в одну из самых влиятельных «военных комнат» в области ИИ в интернете. Ведущий Мэттью Берман теперь ежедневно обращается к аудитории более 500 000 создателей и принимающих решения на YouTube, X и в своем информационном бюллетене Forward Future, объединяя релизы моделей, нехватку чипов и политические споры в единую, очень эффективную ленту. Его стримы Forward Future Live действуют меньше как шоу на YouTube и больше как брифинги по стратегии в реальном времени для людей, ставящих свои карьеры на ИИ.
Состав 12/12/2025 выглядит как моментальный снимок стека ИИ в 2026 году. Исследователь OpenAI Теджал Патвардхан представляет слой фундаментальных моделей, который по-прежнему задает темп для всех остальных. Фабиан Стельцер, соучредитель Glif, представляет слой агентов, превративших эти модели в автономные рабочие процессы. А поверх этого Кристина Качиоппо и Джереми Эплинг из Vanta обеспечивают безопасность и соблюдение нормативных требований, в то время как Спенсер Скетс, генеральный директор и соучредитель Amplitude, завершает круг с помощью продуктовой аналитики и данных о поведении пользователей.
В совокупности, эти гости охватывают весь путь от графического процессора до бизнес-KPI. OpenAI определяет возможности и ограничения. Glif проводит эксперименты с тем, насколько далеко можно продвинуть агенты, прежде чем они сломаются — или сломают что-то. Vanta отвечает на вопрос, может ли это пройти аудит SOC 2 или комитет по рискам в банке, а Amplitude отслеживает, используют ли клиенты действительно функционал ИИ, который команды продолжают внедрять.
Все это происходит в нестабильный момент после GPT-5.2. Производительность моделей снова выросла, но реакция рынка изменилась с чистого восторга на жесткие вопросы о стоимости, надежности и контроле. Венчурные капитальные инвесторы теперь закрывают сделки только на основе ИИ менее чем за 15 минут, но эти проверки все чаще требуют реальные истории внедрения, а не просто графики с бенчмарками.
Между тем, предприятия перестали рассматривать ИИ как эксперимент. Команды Fortune 500 теперь интегрируют модели класса GPT в службу поддержки клиентов, внутренний поиск и аналитику, в то время как регулирующие органы пытаются поспевать за происходящим, и законы о ИИ на уровне штатов застревают в суде. Панель Берман находится прямо на этой грани: люди, которые создают модели, агенты, действующие от вашего имени, механизмы, которые успокаивают регуляторов, и панели управления, которые доказывают, было ли это вообще стоило делать.
Видение Glif: Ваши ИИ-агенты на рабочем месте уже здесь
Сооснователь Glif Фабиан Штельцер говорит об агентам так, как ранние веб-пионеры говорили о браузерах: как о новом времени выполнения, а не просто очередном приложении. Вместо одного окна чат-бота он представляет себе рои автономных агентов, координирующих действия через API, дата-склады и SaaS-инструменты, передающих задачи, как на конвейере. Один агент разрабатывает стратегию, другой извлекает аналитику, третий ведет переговоры с поставщиками или облачными сервисами, всё это происходит без участия человека, который связывает рабочий процесс.
Этот сдвиг переводит ИИ из разряда «умной функции» в «оркестратор работы». Glif от Стельцера рассматривает агентов как составные строительные блоки — небольшие, специализированные процессы, которые могут отслеживать события, инициировать действия и вызывать других агентов. Вы не просто задаете модели команду; вы разрабатываете систему, в которой агенты поддерживают контекст в течение дней, помнят бизнес-правила и эскалируют только тогда, когда уровень уверенности падает ниже установленного порога.
Для разработчиков это напрямую соотносится с Игровым пособием по кодированию настроений Мэтью Бермана: опишите намерения, ограничения и желаемую "атмосферу", а затем позвольте агентам заняться подключением. Вместо того чтобы вручную интегрировать 10 СКД, разработчик определяет цели, такие как "мониторинг риска оттока и запуск экспериментов по удержанию", а граф агентов выясняет, какие API вызывать, какие панели обновлять и когда отправлять сообщение человеку в Slack. Кодирование становится больше о создании рамок и меньше о написании связующего кода.
Компании рассматривают это как преимущество, а не как новшество. Стартап с 10 сотрудниками может создать «команду по росту с использованием ИИ», которая будет: - Ежедневно отслеживать изменения у конкурентов - Автоматически генерировать A/B тесты - Загружать обновления в инструменты, такие как Amplitude, и рекламные платформы
Каждый агент работает круглосуточно и стоит всего несколько центов в час, логируя каждое решение для соблюдения норм и постмортемного анализа.
Крупные платформы стремятся овладеть этим уровнем. Руководители AWS теперь упоминают агентные рабочие процессы в одном контексте с пользовательским кремнием и векторными базами данных, позиционируя Bedrock и Step Functions как основу для многопользовательских систем. Microsoft, Google и OpenAI convergируют на аналогичных стеке: размещенные модели, хранилища памяти, шины событий и движки политик, настроенные для агентов, которые действуют, а не просто общаются.
Мир, ориентированный на агентов, кажется другим для создателей и компаний. Продукты запускаются с учетом принципа «назначить агента на это» — исследования, привлечения, контроля качества, финансирования. Дорожные карты начинаются с вопроса: «Какие агенты отвечают за этот процесс?» вместо «Какая команда может выделить спринт?»
Следующий рубеж OpenAI: за пределами фундаментальных моделей
Спрос на корпоративный ИИ в панелях управления OpenAI выглядит скорее как стена, чем как кривая. Теджал Патвардхан описал рост использования среди клиентов Fortune 500, который увеличивался из квартала в квартал, поскольку команды интегрируют модели в стиле GPT в продажи, поддержку клиентов и внутренние системы знаний, часто через незаметные "теневые пилоты", прежде чем CIO когда-либо дадут свое одобрение. Для OpenAI эти тенденции превращают абстрактные исследования в четкие продуктовые требования: надежность, задержка, соответствие и глубокие интеграционные интерфейсы.
После выхода GPT-5.2 исследовательская программа OpenAI, похоже, смещается в сторону самосовершенствующихся систем, а не просто более крупных монолитов. Представьте модели, которые постоянно перенастраиваются на данных, одобренных пользователями, автоматически создают инструменты и учатся организовывать специализированные агенты. Этот сдвиг соотносится с тем, что Фабиан Стельцер строит в Glif, где сети агентов уже связывают модели, API и память; для того, чтобы ознакомиться с этим будущим, посетите Официальный сайт Glif.
Комментарии Патвардхана намекают на стек, где модели выступают в роли мета-оптимизаторов: они пишут код, разрабатывают эксперименты, оценивают выводы и интегрируют лучшие результаты в новые версии. Самообучение преобразовало игровую ИИ; теперь OpenAI хочет самоитерации в научных исследованиях, рабочих процессах предприятий и даже в пользовательском опыте продукта. Оценка становится такой же стратегической, как и обучающие данные, с синтетическими эталонами и стресс-тестами на основе агентов, которые работают непрерывно.
Сроки, в которые ожидается, что ИИ будет генерировать «большинство новых знаний» к 2028 году, разделили экспертов. Оптимисты утверждают, что как только модели смогут автономно предлагать гипотезы, проводить симуляции и анализировать мультимодальные данные, научный результат может вырасти в 10 раз в узких областях, таких как материаловедение или открытие лекарств. Скептики отмечают, что узкие места — валидация в лабораториях, регулирование и институциональный консерватизм — ограничат влияние еще долго после того, как модели превзойдут человеческий обзор литературы.
Будущие гости Forward обозначили три ограничения, из-за которых 90% знаний, генерируемых ИИ, в 2–3 года выглядят агрессивно: - Ограничения в оборудовании и энергии - Правовые и безопасностные рамки - Доверие людей и темпы усвоения
Для компаний, планирующих дорожные карты на 2026-2028 годы, траектория OpenAI ставит перед ними жесткие выборы. Ставка только на статические фундаментальные модели рискует устареть, так как конкуренты принимают на вооружение агентные, самоулучшающиеся стеки, способные перестраивать рабочие процессы каждую неделю. Более продуманные команды закладывают в бюджет непрерывную интеграцию с API OpenAI, управление данными, которое предвосхищает автоматическую повторную подготовку, и организационные схемы, в которых «AI-операции» находятся наряду с DevOps и безопасностью.
Предупреждение от Vanta: Огромная уязвимость в безопасности ИИ
Доверие рушится быстрее, чем любой алгоритм может его восстановить, и Кристина Качиоппо и Джереми Эплинг рассматривают это как реальный предел возможностей ИИ. С их точки зрения в Vanta, компании не просто внедряют системы класса GPT; они тихо интегрируют их в данные клиентов, производственный код и процесс принятия решений, не проводя никаких проверок безопасности.
Спешка с интеграцией моделей в CRM, репозитории и платежные системы создает новую область риска. «Невинный» AI-ассистент, способный читать тикеты Jira, логи Stripe и личные сообщения в Slack, становится идеальным инструментом для бокового перемещения, как только утечет один API-ключ или будет фиширован токен OAuth.
Традиционные контрольные списки безопасности приложений (AppSec) не соответствуют поведению ИИ. Модели могут выводить данные через результаты, утекать примеры обучения и выводить чувствительные атрибуты из "анонимизированных" логов. Инъекции запросов, отравление данных и взломы больше не являются гипотетическими; они стали новым SQL-инъекцией, и большинство команд по безопасности не имеют соответствующих методичек или мониторинга для них.
Качиоппо и Эплинг утверждают, что команды по соблюдению норм сталкиваются с двойной проблемой: регуляторы требуют контроля над непрозрачными системами, которые поставщики не могут полностью пояснить. Когда модель генерирует ложные финансовые рекомендации или неправильно обрабатывает защищенную информацию о здоровье (PHI), кто несет ответственность за отчет о инциденте — предприятие, поставщик модели или интегратор, соединяющий все вместе?
Регулирование лишь усиливает хаос. Компании, создающие национальные ИИ-продукты, должны ориентироваться в разрозненной совокупности: - Законов об ИИ на уровне штатов - Секторальных правил для здравоохранения, финансов и образования - Появляющихся федеральных и европейских рамок по ИИ
Заблокированные или приостановленные законы штатов не убирают трения; они создают неопределенность. Команды откладывают функции или тихо ограничивают возможности, потому что никто не хочет выпускать инструмент искусственного интеллекта для андеррайтинга или скрининга при найме, который может нарушить возобновленный закон или новое толкование FTC через шесть месяцев.
Безопасность, в интерпретации Vanta, не может оставаться галочкой на этапе поздней разработки. Рассматривать доверие и соответствие как первоочередные продуктовые требования — минимизация данных, аудируемые журналы для каждого решения ИИ, четкое происхождение моделей — становится единственным способом продолжать поставки, когда регуляторы, аудиторы и клиенты догонят.
Компании, которые победят в гонке по искусственному интеллекту в 2026 году, не просто будут иметь более быстрых агентов или большие графические процессоры. У них будет доказательная база: отчеты SOC 2, которые включают в себя ИИ-системы, оценка рисков в реальном времени для запросов и выводов, а также история о безопасности, которая сможет выдержать как утечку данных, так и повестку в суд.
Данные — это король: Amplitude о реальном влиянии ИИ
Данные, а не ощущения, определяют, действительно ли ИИ работает. Это ключевая идея Спенсера Скейтса: если вы не используете инструменты аналитики продукта, такие как Amplitude, для отслеживания каждого клика, запроса и завершения, вы просто догадываетесь. Пользователи, активные пользователи в день (DAU), кривые удержания и падения воронки показывают, какие функции ИИ принимают, игнорируют или обходят пользователи.
Skates побуждает компании отслеживать использование ИИ на уровне функций, а не рассматривать это как единое целое под названием «вовлеченность ИИ». Командам необходимо знать, увеличивает ли помощник по написанию ИИ завершение документов на 20% или сокращает ли сопроводительный ИИ среднее время обработки с 7 минут до 3. Без этой поведенческой телеметрии руководители видят только строку в счете за облачные услуги, а не то, изменило ли это поведение пользователей.
ROI от ИИ, по его словам, живет в простой цепочке: вызов модели → действие пользователя → бизнес-результат. Вы измеряете это, связывая события ИИ с такими метриками, как: - Процент завершения задач - Время до получения ценности или время до разрешения проблемы - Конверсия, расширение и текучесть клиентов
Если функция поиска на основе ИИ увеличивает успешные запросы с 55% до 80% и повышает конверсию на 5%, это реальная отдача от инвестиций, а не демонстрационная победа.
Данные также проясняют маркетинговую войну между ChatGPT, Gemini, Claude и остальными. Мир Skates меньше заботит, какая модель набрала больше баллов на синтетических тестах, и больше волнует, какая из них отправляет больше документов, закрывает больше заявок или создает больше панелей управления на активного пользователя. Когда вы проводите A/B-тестирование моделей за одной и той же пользовательской интерфейсом, аналитика показывает ясного лидера по успеху выполнения задач и удержанию пользователей.
Эта телеметрия становится живым табло для гонки платформ ИИ. Если переход с одной языковой модели на другую тихо снижает еженедельное активное использование на 10% или увеличивает количество ненавистных кликов, вызванных ошибками, вы понимаете, что "дешевле" решение на самом деле обошлось вам в реальные деньги. Конкуренция перестает быть соревнованием по хайпу и становится набором данных.
Непрерывная итерация основывается на этой системе измерений. Команды, которые еженедельно выпускают ИИ-функции, могут отслеживать когорты и отчеты о путях использования, чтобы увидеть, как пользователи адаптируются, а затем уточнять подсказки, ограничения и пользовательский опыт. Сообщение Скетса: компании, которые победят в сфере ИИ, не просто будут дорабатывать модели; они будут дорабатывать поведение, используя данные в качестве обратной связи.
Сделка венчурного капитала за 15 минут: Находится ли ИИ в пузыре?
Пятнадцатиминутные терминальные листы незаметно стали новой нормой в сфере ИИ, при этом раунды seed и Series A закрываются за один Zoom-звонок и общую страницу в Notion. Инвесторы, стремящиеся к «раз в поколение» доходам, опережают друг друга при мягком дилижансе, ставя на то, что пропустить следующую OpenAI обернется большими потерями, чем вложение в 10 будущих списаний. Соучредители хвастаются скриншотами календаря, где холодное знакомство превращается в подписанный SAFE до обеда.
Гиперакселеративный капитал имеет очевидные преимущества. Команды, такие как Glif, могут быстро нанимать инженеров, приобретать время работы GPU и запускать функции агентного типа на месяцы быстрее, чем традиционные стартапы SaaS когда-либо могли. Теджал Патвардхан из OpenAI описывал предприятия, которые переходят от пилотного проекта к многомиллионным контрактам всего за квартал, что делает скорость рациональным — хоть и опасным — стандартом.
Расходы накапливаются так же быстро. Кристина Качиоппо и Джереми Эплинг предупредили, что соблюдение требований, SOC 2 и управление данными редко идут в ногу с 15-минутными сделками, оставляя безопасность в роли доработки, а не проектного ограничения. Сам собой рост Vanta отражает, насколько многим компаниям в области ИИ необходим уровень доверия, который добавляется после первоначального финансирования; более подробную информацию можно найти на официальном сайте Vanta.
За этой лихорадкой скрывается жесткая гонка за инфраструктурой. Стартапы сжигают свежие капиталы на кластерах NVIDIA H100, дефицитных арендах A100 или ускорителях в стиле Groq, часто соглашаясь на многолетние минимумы в облаках с AWS, Azure или Google Cloud. Если упустите окно распределения GPU, вся ваша дорожная карта сдвинется на квартал.
Эта гонка распространяется на людей, а не только на технологии. Соучредители ищут сотрудников из DeepMind и OpenAI с общим пакетом компенсации более 500 000 долларов и акциями, предполагающими достижения статуса декакона к 2027 году. Спенсер Скетс из Amplitude утверждает, что компании с большим объемом данных могут превышать затраты команд на ранних стадиях на поиск талантов и инфраструктуры, что заставляет мелких игроков сосредотачиваться на узких вертикалях или прибегать к агрессивному слиянию и поглощению.
Сжатые сроки искажают стратегию продукта. Вместо того чтобы тщательно проверять варианты использования с помощью аналитики, многие стартапы в области ИИ запускают недоделанных помощников, а затем спешно реагируют, когда удержание пользователей и дневная активность резко снижаются. Советам директоров требуются изменения на уровне "GPT-4" каждые 6–9 месяцев, хотя обучение моделей, оценка и проверки безопасности не сжимаются в том же темпе.
Будет пузырь или нет, рынок уже закладывает в цену научно-фантастические сценарии. Если эти прорывы задержатся — из-за нехватки чипов, ужесточения регулирования или простого затишья среди пользователей — сегодняшние 15-минутные сделки могут стать завтрашними долгими и неприятными раундами падения.
Битва за душу ИИ: Открытое против Закрытого
Открытый против закрытого ИИ больше не выглядит как культурная война GitHub; это борьба за контроль над когнитивными процессами в масштабах. С одной стороны стоят централизованные технологии, такие как OpenAI, Anthropic и Google, которые объединяют передовые модели, хостинг и уровни безопасности за API. С другой стороны, семейство Llama от Meta и множество небольших лабораторий продвигают разрешительные лицензии, локальную инференцию и веса моделей, с которыми вы действительно можете взаимодействовать.
Закрытые сторонники утверждают, что только строго контролируемые системы могут справляться с триллионными моделями параметров, многомиллиардными тренировочными процессами и режимами безопасности, требуемыми регуляторами. Приверженцы открытого исходного кода возражают, что воспроизводимость и возможность создания форков являются единственными настоящими ограничениями на сосредоточение мощи ИИ. Они указывают на Llama 3, Mistral и производные открытого DeepSeek как на доказательство того, что качество больше не принадлежит исключительно закрытым лабораториям.
Геополитика сейчас пронизывает модельные карты. Стартапы из США все чаще говорят о «американизации» мощных иностранных моделей, таких как DeepSeek: удалении или перенастройке данных, связанных с КПК, добавлении американских юридических защит и маршрутизации всего через американские облачные провайдеры. Вашингтон, Брюссель и Пекин все хотят передового ИИ, который соответствовал бы их собственным законам, языкам и ценностям.
Это создает странную динамику: открытые модели, обученные в Китае или Европе, слегка адаптированные американскими компаниями, а затем реэкспортируемые как «безопасные» корпоративные продукты. Политические ястребы беспокоятся, что это все еще позволяет утекать возможности через границы; сторонники открытого кода утверждают, что попытки установить национальные границы вокруг математики потерпят неудачу, как это было с надежной криптографией в 1990-х.
Под поверхностью споров о лицензировании скрывается более глубокий философский раскол. Некоторые лаборатории тихо продолжают искать единую, мощную суперинтеллект, действующую как глобальная утилита: одна модель, много арендаторов. Другие, включая платформы, ориентированные на агентов, такие как Glif, представляют миллиарды маленьких, персонализированных агентов, настроенных под предпочтения, данные и уровень риска каждого человека.
Разработчики находятся на границе между выборами. Закрытые API обеспечивают мгновенное масштабирование, SLA по времени доступности и контрольные списки соблюдения требований, которые Vanta может проверять, но они привязывают команды к ценовым условиям, политике контента и непрозрачным обновлениям моделей. Открытые модели позволяют инженерам закреплять версии, настраивать с использованием собственных данных и запускать локально или на более дешевых GPU, но это требует больше операций и ответственности за безопасность.
Распределение власти в эпоху ИИ, скорее всего, будет зависеть от этого выбора. Если победят закрытые платформы, то несколько компаний из США и Китая фактически станут когнитивными коммунальными услугами, предоставляющими платный доступ к разуму. Если открытые экосистемы будут продолжать развиваться, ИИ будет выглядеть больше как Linux или Android: беспорядочный, фрагментированный, но в конечном счете контролируемый многими, а не немногими.
Последний запрос человечества? Будущее труда переосмыслено
Последнее руководство по созданию промтов для человечества, которое Берман представляет как руководство по выживанию, больше похоже не на шпаргалку, а на описание работы на следующее десятилетие: вы не будете выполнять задания сами, вы будете тем человеком, который говорит армии AI-агентов, что делать. Создание промтов перестает быть фокусом и становится наукой управления, ближе к написанию технического задания или юридического документа, чем к разговору с ботом.
Рабочие процессы, которые раньше были линейными, теперь дробятся на рои агентов. Маркетолог больше не «создает кампанию»; он организует комплекс агентов, которые: - Собирать данные о конкурентах - Генерировать варианты текста - Автоматически запускать A/B тесты в Amplitude - Передавать материалы на рекламные платформы
В этом мире названия должностей тихо мутируют. «Старший аналитик» начинает выглядеть как руководитель AI-команды, контролирующий 10–50 агентов, проверяющий крайние случаи и устанавливающий рамки, а не создающий панели управления строка за строкой. Разработчики переходят от ручной записи шаблонов к проектированию агентных систем, которые вызывают API, мониторят журналы и способны к самовосстановлению.
Интерфейсы также выходят за пределы вкладок браузера. Разговорные интерфейсы уже присутствуют в Slack, Notion и Figma; к 2026 году аудитория Бермана ожидает появления нативных интерфейсов ИИ, таких как умные очки в стиле Gemini, носимые устройства, вдохновленные Limitless от Meta, и наушники с контекстным восприятием, которые слушают совещания и подсказывают рекомендованные действия. Ваш «компьютер» становится сетью сенсоров, камер и микрофонов, питающих постоянного агента, который знает о вашем календаре, кодовой базе и контрактах.
Это меняет само значение «программного обеспечения для повышения продуктивности». Вместо приложений люди подписываются на специализированные AI-команды: финансовая группа, которая закрывает бухгалтерию, Verkaufsgruppe, которая расставляет приоритеты для лидов, группа по соблюдению норм, которая подготавливает аудиты Vanta. Человеческая работа переходит к оценке компромиссов: стоимость против точности, риск против скорости, конфиденциальность против персонализации.
Наратив о катастрофе — искусственный интеллект как чистый разрушитель рабочих мест — упускает из виду эту переработку. Гости Берман постоянно описывают ИИ как усилитель, который создает новые категории производительности: один человек управляет тем, что раньше было офисом из 20 человек, или единоличный соучредитель запускает всю коммерческую стратегию за выходные. Главная трудность будет заключаться не в том, чтобы найти задачи для ИИ; она будет заключаться в том, чтобы быстро повысить квалификацию людей, чтобы они могли управлять тем, на что вдруг стали способны.
Инфраструктурная война, которую вы не видите
Власть, а не подсказки, определяет, кто на самом деле реализует ИИ. Под каждой демонстрацией агентов и обновлениями GPT скрывается жесткая конкурентная гонка в инфраструктуре, о которой регулярно говорят участники Forward Future, но которую потребители редко замечают. Графические процессоры, дата-центры и волоконно-оптические соединения ныне служат настоящими пределами API.
Политики США наконец рассматривают полупроводниковую мощность как вопрос национальной безопасности. Закон о полупроводниках и науке выделяет более 52 миллиардов долларов для возвращения современных заводов на территорию страны, при этом TSMC, Intel и Samsung строят или расширяют заводы в Аризоне, Огайо и Техасе. Кто контролирует производство на уровне менее 3 нм, тот и определяет, как быстро могут обучаться модели следующего поколения.
Этот сдвиг превращает фабрики в США в геополитические пункты сдерживания. Экспортные ограничения уже накладывают запреты на поставки высококлассных чипов NVIDIA H100 и B200 в Китай, фрагментируя глобальную экосистему ИИ. Соперничающие блоки теперь гонятся за тем, чтобы обеспечить собственные кадры проектировщиков, литографическое оборудование и упаковочные мощности, чтобы не оказаться на неправильной стороне в случае прекращения поставок.
Кремний сам по себе не выиграет эту войну; выигрывают люди. Лучшие исследователи в области ИИ и инженеры инфраструктуры получают компенсационные пакеты, которые регулярно превышают 1–3 миллиона долларов в год в виде наличных и акций. OpenAI, Google DeepMind, Meta и масса хорошо финансируемых стартапов тихо переманивают сотрудников друг у друга каждый квартал, и одно единственное отступление может изменить всю дорожную карту продукта.
Этот разрыв в талантах проявляется в том, насколько быстро команды могут использовать новое оборудование. Обучение передовых моделей теперь требует сотни тысяч ускорителей, программного обеспечения для оркестрации, которое не выходит из строя на более чем 10 000 узлах, и инженеров, способных сократить потери мощности на доли процента. Компании, которые не могут нанять этих специалистов, в итоге арендуют мощности у тех, кто может.
Groq иллюстрирует давление на инфраструктурных нативов. Его кластеры вывода на основе LPU обеспечивают потрясающий токеновый пропуск, но спрос со стороны платформ-агентов и корпоративных помощников уже толкает на списки ожидания и потолки региональной мощности. Когда одно вирусное приложение может увеличить использование в 10–20 раз за ночь, даже хорошо капитальные провайдеры спешат добавлять серверные стойки, источники питания и системы охлаждения.
Forward Future гости рассматривают это как новый вид зависимости платформ. Строители, которые хотят понять, где находятся настоящие ограничения — чипы, энергия, пропускная способность или умственные способности — в итоге начинают следить за новостями инфраструктуры так же внимательно, как и за выпусками моделей, часто начиная с таких хабов, как **Forward Future от Мэттью Берман**.
Ваш план действий на 2026 год: Что дальше делать строителям
Импульс сейчас на стороне людей, которые могут создавать продукты ИИ, а не просто говорить о них. В течение ближайших 12–18 месяцев создатели должны рассматривать агентов, данные и безопасность как первоклассные особенности продукта, а не как второстепенные элементы. Это означает переход от «мы добавили LLM» к «наш весь рабочий процесс основывается на автономных агентах, которые подлежат наблюдению, тестированию и ответственности».
Начните с проактивных рабочих процессов. Инструменты, такие как Glif, указывают на близкую перспективу, где продукты организуют флот специализированных агентов: один для исследований, один для выполнения, один для контроля качества. Разработчики должны создавать прототипы узких потоков с высокой отдачей — привлечения клиентов, распределения поддержи, внутренних операций — затем объединять агентов с четкими передачами задач и возможностью человеческого вмешательства.
Спрос со стороны предприятий на такие платформы, как OpenAI, стремительно растет, но компании покупают надежность, а не демонстрации. Разработчикам необходимо проектировать системы с учетом соглашений об уровне обслуживания, аудируемости и резервирования поставщиков через OpenAI, Anthropic и открытые модели. Это включает явные стратегии смены моделей, бюджеты на задержки и меры контроля затрат, встроенные в архитектуру, а не добавленные на этапе закупок.
Безопасность теперь решает, кто будет развернут в массовом порядке. Сообщение Vanta прямо: ИИ без управления становится неконтролируемым двигателем экстракции данных. Команды должны: - Классифицировать данные до того, как они попадут в модель - Регестрировать каждую подсказку и ответ, касающиеся чувствительных систем - Соотносить использование ИИ с SOC 2, ISO 27001 и секторальными правилами с первого дня
Стратегия данных отделяет игрушки от надежных компаний. Мир Спенсера Скэйтса в Amplitude вращается вокруг инструментирования каждого взаимодействия с ИИ: запросов, ответов, пользовательских правок, последующих действий. Создатели должны относиться к функциям ИИ так же, как к любому эксперименту по росту — A/B тестировать запросы, измерять влияние на удержание и отвергать то, что не влияет на ключевые метрики.
Никому не нужно делать это в одиночку. Экосистема Forward Future Мэттью Бермена — информационный бюллетень, каталог инструментов и сообщество — функционирует как карта в реальном времени, показывающая то, что работает среди более чем 500 000 строителей. Используйте это для оценки стеков, открытия инструментов с фокусом на агентов и отслеживания изменяющихся лучших практик.
Следующий год и полтора года определяют постоянную иерархию победителей в области ИИ. Развитие аппаратного обеспечения, возможности моделей и корпоративные контракты все больше укрепляются к 2026 году. Тем, кто хочет занять прочную позицию в экономике ИИ, необходимо уже сейчас начать поставлять агенты, обеспечивать данные и измерять реальное воздействие, а не ждать следующего цикла финансирования.
Часто задаваемые вопросы
Что такое Glif и о чем говорил его соучредитель?
Glif — это платформа для создания и использования AI-агентов. Сооснователь Фабиан Стельцер обсудил переход от одноразовых AI-инструментов к сложным, взаимосвязанным агентным рабочим процессам, которые автоматизируют целые процессы для разработчиков и бизнеса.
Как Vanta решает вопросы безопасности, связанные с ИИ?
Vanta, представленная своим CEO и CPO, сосредоточена на доверии и соблюдении норм для систем ИИ. Они подчеркнули настоятельную необходимость в надежных системах безопасности для управления рисками, поскольку предприятия стремительно внедряют ИИ, особенно на фоне развивающихся регуляций.
Каковы были ключевые выводы исследователя OpenAI?
Исследователь OpenAI Теджал Патвардхан, вероятно, поделилась мнениями о значительном росте внедрения ИИ в предприятия. Обсуждение указывало на будущие разработки моделей за пределами GPT-5, включая самоусовершенствующийся ИИ и амбициозные сроки создания знаний с помощью ИИ.
Почему анализ данных важен для будущего ИИ?
Спенсер Скетс, генеральный директор Amplitude, подчеркнул, что анализ данных имеет решающее значение для понимания восприятия ИИ пользователями в реальном мире и возврата инвестиций. Данные помогают компаниям измерять реальное влияние функций ИИ и ориентируют будущее развитие продуктов.