TL;DR / Key Takeaways
Соревнование в области ИИ только что взорвалось.
Развитие искусственного интеллекта вышло на новый уровень. Передовые модели теперь выходят на рынок за месяцы, а не за годы, и показатели, которые когда-то определяли целый исследовательский цикл, рушатся при обновлении рейтинга всего за выходные. То, что изначально выглядело как гонка двух лидеров между OpenAI и Google, теперь напоминает глобальный беспорядок.
Китайская лаборатория DeepSeek только что устроила возвращение, которое встряхнуло западное самодовольство. Ее последняя модель, анонсированная в вирусной теме в X, демонстрирует результаты аналогичные GPT‑4 в области программирования и логического мышления, при этом утверждая о значительно более низких затратах на обучение, что напоминает предыдущие заявления о эффективности DeepSeek‑V3. Для регуляторов и военных планировщиков, уже обеспокоенных "спутниковыми моментами" в области ИИ, быстро развивающаяся китайская технология больше не является гипотетической.
Пока все спорили о количестве параметров, Amazon тихо внедряла генеративные модели в экономическую инфраструктуру интернета. Новые системы под брендами Nova и Bedrock нацелены на предприятия, которым меньше важна харизма модели и больше - время работы, соответствие требованиям и общая стоимость владения. Вместо того чтобы гоняться за вирусностью, Amazon оптимизирует контракты, встраивая ИИ в розничную торговлю, логистику и рабочие процессы AWS, которые затрагивают миллионы компаний.
С другой стороны, видео-модели перевернули представление о том, кто является лидером в области визуального генеративного ИИ. Новый претендент, упомянутый в роликах, сравнивающих выводы с Veo 3 от Google, создает сложные сцены, движения камеры и кадры уровня VFX, которые больше напоминают предпросмотр фильма, чем демонстрацию игрушек. Социальные ленты наполнились тестами "рядом-рядом", где модель Google внезапно выглядит устаревшей.
Возникает многогранный вызов идее о том, что OpenAI и Google определяют границы возможностей ИИ. Китайские лаборатории активно продвигают кривые соотношения цены и производительности, Amazon охватывает сектор корпоративных технологий, а специализированные игроки атакуют ниши, такие как видео, робототехника и "нано" модели на устройствах. Власть в ИИ больше не сосредоточена в одном единственном бенчмарке или в рамках одного ключевого выступления компании.
Эта новая фаза выглядит менее как гонка и больше как серия перекрывающихся войн: за таланты, за графические процессоры, за данные и за распределение. Тот, кто победит, будет иметь не только самую умную модель, но и самое глубокое интегрирование в то, как люди работают, создают и вычисляют каждый день.
DeepSeek вернулся — и он нацелился на GPT-4.
DeepSeek только что совершил возвращение, которое напрямую нацелено на территорию класса GPT‑4: новая волна моделей, настроенных на код, математику и долгосрочное рассуждение. Первые показатели от сообщества показывают, что последний флагман DeepSeek соперничает с GPT‑4 и Claude 3.5 в задачах программирования, в то время как более мелкие варианты сравниваются или превосходят модели в стиле GPT‑4‑mini в математике и алгоритмическом рассуждении на уровне GSM8K при доле затрат.
Позиционируясь как самый агрессивный «открытый» конкурент Китая, DeepSeek занимает странную промежуточную позицию между культурой открытого кода и государственной стратегией ИИ. Веса моделей, подробные заметки по архитектуре и спецификации токенизаторов проникают в исследовательскую экосистему, но развертывание по-прежнему осуществляется через строго контролируемые API, которые соблюдают китайские правила контента.
Этот гибридный подход имеет серьезное геополитическое значение. Пекин хочет модели на уровне границы, которые могут конкурировать с OpenAI и Anthropic, но при этом он также стремится к детерминированному контролю над тем, что эти системы могут говорить о политике, истории и безопасности. Подход DeepSeek фактически экспортирует китайские возможности в области ИИ, не полностью экспортируя китайское управление ИИ.
Соотношение цены и производительности — это то, где DeepSeek превращается из любопытства в настоящую экономическую угрозу. Предварительные оценки стоимости обучения DeepSeek-V3 составляли несколько десятков миллионов долларов — на порядки ниже, чем то, что оценивают инсайдеры для оригинального GPT-4, при этом модели всё равно показывали сопоставимые результаты в раз reasoning на публичных лидербордах. Эффективность вывода выглядит аналогично: агрессивная квантизация и трюки с плотностью позволяют моделям среднего размера DeepSeek работать на более дешёвых графических процессорах и даже на высококачественных потребительских картах.
Для западных лабораторий это подрывает ключевое преимущество. Если модель DeepSeek с 30–70 миллиардами параметров может достичь уровня кодирования, сопоставимого с GPT-4, при этом будучи в 2–3 раза дешевле за миллион токенов, аргумент "только мы можем позволить себе такой масштаб" от американских гигантов начинает распадаться. Облачные провайдеры и стартапы в Юго-Восточной Азии, на Ближнем Востоке и в Латинской Америке внезапно получают убедительный неамериканский вариант, который не обременен американской экспортной политикой.
DeepSeek по-прежнему балансирует на тонкой линии регулирования. Китайские правила по генеративному ИИ требуют проведения проверок безопасности, ограничений на наборы данных и быстрой блокировки контента, связанного с политикой, что заставляет DeepSeek накладывать серьезные слои соответствия на исходные веса, которые в противном случае были бы удобны для исследований. В результате появляется новый тип двойного назначения: достаточно открытый, чтобы ускорить глобальные исследования в области ИИ, но одновременно достаточно ограниченный, чтобы удовлетворить цензоров в стране.
Секретное оружие Amazon: познакомьтесь с моделями Nova
Amazon тихо разрабатывает свой ответ на системы в стиле GPT, и теперь он имеет имя: Nova. Вместо того чтобы гоняться за вирусными чат-ботами, Amazon интегрирует эти базовые модели прямо в инфраструктуру AWS, где уже работают 2,5 миллиона активных клиентов.
Nova находится в центре Amazon Bedrock, обеспечивая текстовые, кодовые и мультимодальные нагрузки для компаний, которые больше заботятся о времени безотказной работы и соответствии требованиям, чем о демо-версиях ИИ. Первые варианты Nova нацелены на такие области применения, как поддержка клиентов, анализ документов и внутренний поиск знаний, при этом все это защищено аутентификацией, журналированием и шифрованием, характерными для AWS.
Ассортимент Amazon — это вертикальный стек, которому могут позавидовать лишь немногие соперники. Специальные чипы Trainium и Inferentia справляются с обучением и инференсом, регионы AWS обеспечивают эластичные вычислительные мощности класса GPU, Nova предоставляет интеллектуальный слой, а Amazon Q и Q Apps превращают это в нечто, с чем могут взаимодействовать пользователи бизнеса.
Q — это рабочий помощник Amazon, но настоящая находка — это Q Apps, которые позволяют неразработчикам собирать внутренние инструменты, описывая рабочие процессы на простом языке. HR-команды могут создавать ботов для адаптации новых сотрудников, финансовый отдел может подключать генераторы отчетов, а команды поддержки могут запускать помощников по классификации, все это поддерживается Nova и существующими корпоративными хранилищами данных на S3 и Redshift.
В то время как OpenAI, Google и DeepSeek гонятся за вниманием потребителей, Amazon нацеливается на закупочные департаменты и CIO. Расходы на корпоративный ИИ, по прогнозам, превысят 400 миллиардов долларов ежегодно к 2030 году, и Amazon хочет, чтобы Nova стала стандартным вариантом, который появляется рядом с EC2, S3 и Lambda в каждом запросе предложений.
Эта стратегия, ориентированная на B2B, отражает то, как AWS завоевал облако: начать с разработчиков и IT, а затем постепенно охватить всю организацию. Как только компания стандартизируется на Q, поддерживаемом Nova, для внутреннего поиска, помощи с кодом и аналитики, его замена означает необходимость переработки ключевых рабочих процессов, а не просто замену чат-бота.
Собственное продвижение DeepSeek в сторону высокоэффективных моделей, задокументированное в обновлениях, таких как DeepSeek-V3.2 Release, подчеркивает, насколько насыщенным стало пространство потребительских и открытых моделей. Amazon делает ставку на то, что истинная прибыль скрыта в рутинных задачах — отчетах по соблюдению норм, интеграциях с SAP, скриптах колл-центров — где Nova может спокойно существовать, выставлять счета по часам и никогда не попадать в тренды на X.
Прорыв Google 4.5, который вы пропустили
Гугл, возможно, уже имеет преемника Gemini, который работает тихо за кулисами. Исследователи и инсайдеры на X продолжают указывать на внутренний стек “Gen 4.5”, который поддерживает эксперименты с длинным контекстом, крайне стабильное использование инструментов и новые системы памяти, о которых Google начал намекать примерно в тот момент, когда заговорил о "пересмотре памяти" в новостных сводках по ИИ.
Доказательства приходят фрагментами: скриншоты бенчмарков, фрагменты логов и отчеты о моделях, справляющихся с контекстами в 1M токенов, не скатываясь в бессмыслицу. Некоторые тестировщики описывают уровень рассуждений GPT‑4.1 с гораздо лучшими расширенными процедурами извлечения, а также более плавными переходами между языковыми, кодовыми и структурированными данными инструментами.
Ожидайте, что Gen 4.5 будет активно развиваться в трех направлениях: - Долгосрочное рассуждение на основе сотен страниц или часов транскрипций - Мультимодальная интеграция текста, изображений, видео и данных от датчиков в реальном времени - Продвинутое использование инструментов, которое автономно объединяет API, поиск и выполнение кода
Google уже создает прототипы этой системы в Workspace, Android и Search. Представьте себе боковую панель Gemini, которая считывает 300-страничный юридический документ, пересекает темы из Gmail и разрабатывает стратегические документы, обращаясь к внутренним базам данных, все это в рамках одной модели оркестратора, а не хрупкой цепочки отдельных сервисов.
Преимущество тихого убийцы находится в исследовательской лаборатории Google. Проекты, такие как GenCast, уже продемонстрировали, что модели мира в стиле диффузии могут превзойти традиционное численное предсказание погоды, предоставляя высококачественные 10-дневные прогнозы быстрее и дешевле, чем физически обоснованные системы, работающие на суперкомпьютерах.
GenCast — это не игрушечная демонстрация: он обрабатывает петабайты исторических данных с спутников и радаров, а затем генерирует вероятностные погодные траектории, которые превосходят ведущие операционные модели по ключевым метрикам, таким как среднеквадратичная ошибка и обнаружение экстремальных событий. Эта же архитектура аккуратно адаптируется для планирования движения, логистики и даже робототехники.
Таким образом, Google ясно понимает, как превратить огромные объемы данных и индивидуально разработанные архитектуры в современные системы. Открытый вопрос — это скорость. Смогут ли в Маунтин-Вью выпустить продукты на базе Gen 4.5 для миллиардов пользователей раньше, чем OpenAI, Amazon и DeepSeek закрепят свои позиции в сознании предприятий и потребителей, или же еще один год осторожных запусков оставит лучшие идеи Google похороненными в статьях arXiv и внутренних демонстрациях?
Король мёртв: как Veo 3 был свергнут
Король AI-видео продержался едва ли один сезон. Veo 3 от Google, который совсем недавно установил стандарт для текстов в видео, теперь сталкивается с серьезным соперником из Китая: Kling от Kuaishou, гиганта коротких видео с более чем 600 миллионами пользователей и мощной инфраструктурой в области реального времени.
Демо Kling делают больше, чем просто выглядят привлекательно на X. Сравнительные клипы демонстрируют более высокую временную согласованность: наряды, освещение и реквизит остаются неизменными на протяжении 10–20 секунд, в то время как Veo 3 плавно смещается, изменяя лица или искажая фоны между кадрами.
Стабильность персонажа, возможно, является самым заметным преимуществом Kling. Мульти-кадры с одним и тем же protagonistas—например, девушка в красной куртке, которая идет, затем катается на велосипеде, а потом сидит в кафе—сохраняют лицевую идентичность и аксессуары с разных ракурсов, в то время как Veo 3 часто «перевыпускает» главного героя или изменяет волосы, одежду и даже возраст в середине последовательности.
Физика — это область, где свержение кажется неоспоримым. Клинг управляет: - Жидкими брызгами, которые подчиняются гравитации и объему - Тканью, которая складывается и колеблется согласованно с течением времени - Движениями камеры, которые не искажают геометрию при быстром панорамировании
Veo 3 по-прежнему выделяется кинематографическими цветами и композицией, но динамичные сцены выявляют колеблющиеся объекты и резкие столкновения, которых Kling теперь во многом избегает.
Этот момент важен, поскольку генерация видео находится на переднем крае ИИ: огромные модели, 3D-логика и высокие вычислительные затраты. То, что целенаправленный китайский игрок обгоняет Google в этой области, сигнализирует о том, что больше нет ни одной границы — будь то визуализация, робототехника или «модели мира», которая принадлежала бы исключительно американским мега-лабораториям.
Для экономики создателей последствия наступают быстро. Инструменты на уровне Kling позволяют индивидуальным YouTube и TikTok авторам заранее визуализировать или полностью синтезировать кадры, которые раньше требовали команды VFX, систем захвата движения и бюджетов с пятью нулями, сокращая разрыв между сценарием и экраном.
Теперь VFX-студии сталкиваются с двойной проблемой. Кинокомпании будут использовать модели, такие как Kling и Veo 3, для концептуальных проекций и фонов, в то время как клиенты начинают спрашивать, почему 6-недельная CG-сцена стоит больше, чем выходные на создание промптов плюс доработка.
Эскалация реализма также усиливает риски синтетических медиа. Модель, которая точно передает временную последовательность и физику, делает дипфейки намного труднее отличимыми, особенно в быстро смонтированных социальных клипах, что подталкивает платформы и регуляторов к внедрению водяных знаков, стандартов происхождения и более агрессивным гонкам в обнаружении.
Тайное наступление Mistral на Большую Тройку
Mistral продолжает атаковать с флангов. В то время как OpenAI, Google и Amazon ведут яркие битвы на заголовках новостей, парижский стартап тихо выпускает модели с открытым весом, которые по показателям немного уступают передовым системам, работая при этом на небольшой части аппаратного обеспечения.
Его последнее обновление, Mistral 3, расширяет этот набор возможностей: семья моделей с параметрами от ~12B до 40B, которые достигают производительности на уровне GPT‑4 в задачах кодирования, математики и многоязычного общения, при этом хорошо помещаясь на одном высокопроизводительном GPU. Компания утверждает, что ее результаты конкурентоспособны по таким бенчмаркам, как MMLU, GSM8K и HumanEval, но при значительно более низкой стоимости вывода.
Где американские гиганты предлагают только API‑доступ, Mistral делает ставку на модели, которые можно скачивать, настраивать и размещать самостоятельно. Компании могут развертывать открытые варианты Mistral 3 внутри своих собственных VPC, соответствовать правилам хранения данных и избегать передачи чувствительных запросов через непрозрачные контролируемые США стеки.
Эта стратегия напрямую нацелена на привязку к API. Вместо того чтобы арендовать интеллект по токену у одного гиперскейлера, компании могут стандартизироваться на контрольной точке Mistral, а затем переходить между: - Локальными кластерами - Облачными провайдерами ЕС - Деплоем на краю и на устройствах
Эффективность — это другое оружие. Смесь экспертов Mistral и компактные ядра CUDA позволяют 12-миллиардной модели конкурировать с гораздо более крупными LLM на реальных задачах, от обобщения поддержки клиентов до ревью кода. Для многих команд «достаточно хорошее, плюс дешевое, плюс управляемое» оказывается лучше, чем «чуть более умное, но в 10 раз дороже».
В результате Mistral тихо становится стандартным выбором для европейских банков, промышленных компаний и правительств, которым необходимо высокое качество работы, но они не могут передавать данные в облака США или Китая. Мелкие стартапы из США, которые не могут позволить себе API класса GPT-4, также выбирают этот путь.
Mistral также выступает в роли emerging "третьей силы" в сфере ИИ: свободной коалиции лабораторий с открытыми моделями, регуляторов ЕС и облачных провайдеров, которые стремятся к более децентрализованной структуре. Вместо мира, разделенного на закрытые платформы США и Китая, Mistral предлагает европейский, ориентированный на открытость центр притяжения.
Для тех, кто следит за этим сдвигом, собственное описание Mistral Mistral 3 звучит как манифест: почти проприетарная производительность, полностью проверяемые веса и дорожная карта, предполагающая, что открытые модели будут находиться в центре серьезной AI-инфраструктуры.
Революция «Нано»: ИИ, который живет на вашем телефоне
Нано-модели тихо переписывают, где живет ИИ. Вместо обращения к удаленному дата-центру, модель на устройстве работает непосредственно на NPU, GPU или даже CPU вашего телефона, сжимая миллиарды параметров в нечто, помещающееся в несколько сотен мегабайт или меньше.
Gemini Nano от Google задало тон: компактная модель, обеспечивающая функцию резюмирования в Recorder, умные ответы и обнаружение спама на устройствах Pixel. Apple ответила функциями Apple Intelligence на устройстве, используя сочетание мелких моделей локально и более крупных в своей инфраструктуре Private Cloud Compute для более сложных задач.
Аппаратное обеспечение наконец-то успело за развитием. Процессоры Qualcomm Snapdragon X Elite и чипы Apple серии M обеспечивают более 40 TOPS производительности NPU, чего достаточно для работы моделей с 1–3 миллиардами параметров на интерактивных скоростях. Эта перемена делает реалистичными низко задерживающие ответы менее 50 мс для голосовых помощников, перевода и задач зрения без использования сети.
Конфиденциальность становится функцией, а не сноской. Когда ваши редакции фотографий, голосовые команды и предсказания клавиатуры никогда не покидают устройство, площадь атаки уменьшается, и у регулирующих органов появляется меньше оснований вмешиваться. Компании могут представить себе телефоны, которые локально обрабатывают конфиденциальные электронные письма или контракты без перенаправления данных через облако США или ЕС.
Войны экосистем теперь простираются прямо в ваш карман. Google интегрирует Gemini Nano в сервисы Android; Apple внедряет свои модели в Siri, Фото и Заметки; Microsoft запускает небольшие модели в Windows, Copilot и устройства Surface, часто через NPU и ONNX Runtime.
Каждодневные приложения могут быстро изменяться. Мессенджеры могут выполнять: - Переписывание тона в реальном времени - Автоматический перевод - Генерация умных ответов
Всё это может происходить полностью в оффлайне во время полета.
Камеры и фотоприложения, похоже, следующие на очереди. Ожидайте телефоны, которые предлагают генеративное удаление объектов, замену фона и перенос стиля прямо в превью, а не после обратной передачи в облако. Запись видео может получить живые субтитры, распознавание сцен и даже предложения по кадрам во время записи.
Ассистенты также изменяют свой характер, когда задержка исчезает. Голосовой агент, который отвечает за менее чем 100 мс, отслеживает контекст на экране и работает в метрополитене, будет восприниматься не как чат-бот, а скорее как орган чувств на системном уровне.
Восстание роботов становится... неловким
Роботы продолжают срывать вечеринку ИИ, и они по-прежнему самые хаотичные гости в комнате. Гладкие демонстрационные ролики показывают гуманоидов, бегущих по складам и складывающих одежду; сырой, неотрезанный материал демонстрирует, как они колеблются на порогах, неправильно берут кружки и замирают, когда человек проходит в кадре.
Гуманоидные платформы, такие как Figure 01, Tesla Optimus и Digit от Agility Robotics, теперь используют крупные языковые модели на борту или через 5G. В сочетании с многомодальными визуальными системами они могут интерпретировать команды вроде «возьми синюю отвертку со второго полки и передай её Сэму» и планировать многоэтапные действия без жестко закодированных скриптов.
Демо Figure с моделями OpenAI показало, как работник задаёт естественные вопросы о рабочем месте, а робот идентифицирует инструменты и объясняет, что он видит. Phoenix от Sanctuary AI и Apollo от Apptronik предлагают аналогичное «универсальное» поведение: одно тело, множество задач, движимые ЯП, семантическим картированием и обучением с подкреплением.
Реальность настигает, когда эти модели сталкиваются с физикой. Роботы всё еще роняют объекты, если меняется освещение, ошибаются в определении трения на гладких полах или неправильно интерпретируют беспорядочную сцену, где "синий кубок" прячется за коробкой с хлопьями. Даже известный акробатический Атлас от Boston Dynamics иногда падает лицом вниз за кадром, когда одна ошибка в оценке точки опоры приводит к сбою.
Исследователи продолжают публиковать сборники неудач по определенной причине. Языковые модели создают несуществующие ящики; планировщики захватывают ножи за лезвие; навигационные стеки отправляют роботов в стеклянные стены, которые модели зрения классифицируют как «открытое пространство». Каждая ошибка показывает, насколько хрупкими остаются текущие каналы восприятия и планирования вне лабораторных условий.
Сторонники воплощённого ИИ утверждают, что эти неудачи необходимы. Тезис: истинный ИИ требует тела, которое может сталкиваться с предметами, ощущать крутящий момент в суставах и связывать абстрактные понятия, такие как «потолкни аккуратно» или «слишком горячо», с данными сенсоров, а не только с текстами в интернете.
Скептики возражают, что смоделированные миры и обширные многомодальные корпуса могут оказаться достаточными. Они указывают на «модели мира», обученные на миллиардах видеокадров и игровых движках, насыщенных физикой, которые позволяют агентам переживать почти бесконечные жизни, не повредив ни одного захвата в реальном мире.
Большинство лабораторий теперь хеджируют и делают и то, и другое. Человекообразные флотилии собирают реальные данные взаимодействия, в то время как параллельные агенты тренируются в фотореалистичных симуляторах, используя такие техники, как перенос из симуляции в реальность и дистилляция политики, пытаясь преодолеть разрыв между безупречным виртуальным выполнением и неуклюжими, медленными, очень человечными роботами.
Геополитическая битва искусственного интеллекта накаляется.
Геополитика теперь находится внутри весов модели. Возрождение DeepSeek, усилия Amazon с Nova, работа Google над Gen 4.5 и открытая атака Mistral формируют единый сюжет: государства и блоки стремятся укрепить свои ИИ-технологии, прежде чем кто-то другой заберет будущее.
Стратегия Китая выглядит почти как учебный пример промышленной политики. DeepSeek, Zhipu, Baidu и Alibaba обучают модели класса GPT‑4 на субсидированных вычислениях, поддерживаемых экспортными контролями на графические процессоры и внутренней инициативой по производству чипов от линии Ascend компании Huawei. Проекты, такие как DeepSeek-V3.2 на Hugging Face, демонстрируют, как быстро китайские лаборатории могут вносить изменения даже в условиях санкций США.
Европа ведет другую игру: регулирование плюс открытые модели как рычаг. Законодательство ЕС по ИИ, с жесткими правилами по моделям "системных рисков" и прозрачности, замедляет выпуск фронтированных моделей, но направляет силы в системы с открытыми весами, такие как Mistral 3 и форки класса Llama. Брюссель ставит на то, что интероперабельность, стандартизация и гарантии конфиденциальности станут экспортными товарами такой же ценности, как и сами модели.
Американская мощь по-прежнему сосредоточена в частных руках. OpenAI, Google, Amazon, Meta и Anthropic контролируют большую часть высококачественных TPU, GPU и сетевых мощностей, часто используя вертикально интегрированные облачные решения. Эта концентрация позволяет им запускать эксперименты масштаба Gen 4.5, модели классов Nova и преемников Veo 3 на кластерах, измеряемых сотнями тысяч H100 и TPU.
«Суверенитет в области ИИ» стал новым «энергетическим независимым принципом». Теперь правительства стремятся обеспечить три вещи: - Производственные мощности внутри страны или у союзников для продвинутых технологий (TSMC, Samsung, Intel) - Долгосрочные запасы GPU и ускорителей - Иммиграционные пути для ведущих исследователей в области машинного обучения и робототехники
Регулирование определяет темп. Правила Китая в области генеративного ИИ требуют строгого контроля за содержанием и оценки безопасности, что замедляет некоторые запуски, но способствует согласованию моделей с государственными приоритетами, такими как цензура и промышленная автоматизация. Регуляторы США полагаются на антимонопольное законодательство, экспортный контроль и мягкие правовые рамки безопасности, что позволяет быстро внедрять технологии, но концентрирует власть в руках нескольких компаний.
Европейские рамки работают в обе стороны. Mistral может поставлять мощные открытые модели, но затраты на соответствие стандартам заставляют небольшие стартапы переезжать в Лондон, Дубай или Сан-Франциско. В результате получается мир с тремя скоростями, где Китай оптимизирует контроль, Европа — управление, а США — масштабирование, и каждая новая модель становится предметом переговоров.
Ваша следующая работа будет с поддержкой ИИ, а не заменена.
Работа редко исчезает за одну ночь; она разбивается на задачи и постепенно перерабатывается. Новая волна ИИ — кодовые движки DeepSeek, модели Nova от Amazon, слухи о Gen 4.5 от Google, видеопреемник Veo 3 и вирусные нано модели — нацелены на конкретные задачи с хирургической точностью, а не на целые профессии.
Бухгалтера, юристы и аналитики освободятся от рутинной работы — сверки, проверки контрактов, составления отчетов — благодаря помощникам, которые работают на системах класса Nova или Gemini. Редакторы и YouTube-блогеры будут полагаться на конкурентов Veo 3 и инструменты от Runway или Freepik для первичной нарезки, визуальных эффектов и дополнительного материала, а затем будут уделять больше времени вкусу, сюжету и распространению.
На смартфонах модели «нано», работающие локально с параметрами менее 3–8 миллиардов, будут интегрированы в клавиатуры, камеры и приложения для заметок. Они будут подводить итоги совещаний в реальном времени, переписывать электронные письма перед отправкой и автоматически генерировать документацию на основе 30-секундной записи экрана — без подключения к облаку.
Корпоративные стекы будут выглядеть не как один гигантский мозг в стиле GPT, а скорее как набор специализированных инструментов. Один рабочий процесс может соединять: - Модель Nova с настройками для конкретной области для поиска и рассуждений - Модель в стиле DeepSeek для генерации и рефакторинга кода - Видео-модель, превосходящую Veo 3, для создания учебных роликов или рекламы - Нано-модель на устройстве для безопасной, оффлайн персонализации
Этот сдвиг превращает «Искусственный интеллект заменит мою работу» в «Искусственный интеллект будет в каждой вкладке, которую я использую для выполнения своей работы». McKinsey оценивает, что 60-70% текущих задач содержат определенный уровень потенциала для автоматизации, но только небольшая часть ролей может быть полностью автоматизирована с помощью современных технологий. Разрыв между задачей и работой — это то место, где все еще доминируют человеческое суждение, вкус и ответственность.
Стратегия выживания выглядит жестко просто: взаимодействуйте с этими инструментами напрямую. Запустите бесплатный экземпляр Nova или Gemini, попробуйте DeepSeek для ревью кода, установите модель на устройство через Ollama или LM Studio, и создайте раскадровку видеоролика с помощью Runway или Kling.
Работники, которые будут относиться к ИИ как к Excel в 1990-х — раздражающе вначале, а затем незаменимо — зададут темп. Все остальные окажутся под контролем тех, кто сделал скучную работу, научившись общаться с машинами.
Часто задаваемые вопросы
Какова новая модель ИИ компании DeepSeek?
DeepSeek представила высокоэффективные и мощные модели, такие как DeepSeek-V3. Они известны своей выдающейся производительностью в кодировании и математике, ставя под сомнение устоявшиеся модели, такие как GPT-4, при значительно меньших затратах на обучение.
Что такое «секретные» модели Nova AI от Amazon?
Семейство Nova является собственными фундаментальными моделями Amazon, доступными через AWS Bedrock. Они разработаны для корпоративного использования с акцентом на безопасность, настраиваемость и интеграцию с корпоративными системами данных, что отражает стратегию Amazon, ориентированную на B2B в области ИИ.
Какой ИИ-модель победила Google Veo 3?
Недавние демонстрации Kling, модели видео на основе ИИ от китайской технологической компании Kuaishou, показали превосходную временную согласованность и физическую реалистичность в сложных сценах, что заставило многих экспертов заявить, что она превосходит Veo 3 от Google.
Почему важны 'нано' ИИ модели?
Наномодели — это небольшие, эффективные искусственные интеллекты, разработанные для работы непосредственно на устройствах, таких как телефоны и ноутбуки. Они предлагают значительные преимущества в области конфиденциальности, скорости и оффлайн-функциональности, обеспечивая такие возможности, как перевод в реальном времени и умное редактирование фотографий без необходимости подключения к облаку.