Новый ИИ от Google только что нарушил правила.

Google только что запустил Gemini 3 Flash — модель ИИ, которая удивительно быстрее, дешевле и даже обходит своего "Pro" собрата в программировании. Это меняет правила игры для разработчиков, бизнеса и всей индустрии ИИ.

Stork.AI
Hero image for: Новый ИИ от Google только что нарушил правила.
💡

TL;DR / Key Takeaways

Google только что запустил Gemini 3 Flash — модель ИИ, которая удивительно быстрее, дешевле и даже обходит своего "Pro" собрата в программировании. Это меняет правила игры для разработчиков, бизнеса и всей индустрии ИИ.

Аномалия ИИ: Дешевле, Быстрее и Умнее?

Google только что совершил парадокс в области ИИ: его новый «легкий» Gemini 3 Flash обходит флагманский Gemini 3 Pro в том, что наиболее важно для разработчиков — в программировании. На SWE-bench Verified, одном из самых сложных реальных бенчмарков в области программной инженерии, Flash набирает 78% при 76% у Pro, при этом предлагая более низкую цену и меньшую задержку.

Ютубер Мэтью Берман выразил настроение одним словом: «невероятно». В своём анализе запуска он отмечает, что Gemini 3 Flash стоит примерно четверть цены Gemini 3 Pro, около трети цены GPT-5.2 и примерно шестую часть стоимости семейства Claude, однако при этом он всё равно показывает результаты, близкие к 80% GPT-5.2 на одном и том же тесте по программированию.

Это центральное напряжение новой линейки Google: как «дешёвый и быстрый» вдруг становится разумным выбором в области, одержимой брендингом «Pro», «Ultra» и «Frontier»? Если предполагаемая лёгкая модель может сравниться или почти сравниться с самыми мощными конкурентами, старые предположения о том, что больший размер автоматически означает лучшее, начинают трещать по швам.

Ценностное предложение Flash основано на трех столпах, которые обычно находятся в компромиссе друг с другом: - Радикальное снижение затрат - Ураганная скорость - Удивительно сильные логика и программирование

Что касается цен, то Gemini 3 Flash стоит около 0,50 доллара за миллион входных токенов и 3,00 доллара за миллион выходных токенов. Это позволяет ему оставаться в бюджетном сегменте по сравнению с Pro, при этом значительно превосходя более старую версию Gemini 2.5 Flash по качеству и возможностям.

Скорость — это второй шок. Google утверждает, что Flash работает примерно в 3 раза быстрее, чем Gemini 2.5 Pro, при этом требуя примерно на 30% меньше токенов для сложных задач «мышления». Берман описывает его как «невероятно быстрый, невероятно дешевый и невероятно хороший», утверждая, что отдача на токен ощущается выше, чем у соперничающих моделей.

Сырая интеллектуальность и мультимодальность составляют третью опору. Gemini 3 Flash набирает 33.7% на Последнем Экзамене Человечества (Arc AGI2), почти равен GPT-5.2 в математике AIME 2025 с 95–99%, и демонстрирует 81.2% на MMMU-Pro для мультимодального мышления. Он обрабатывает видео, изображения и аудио, а теперь также обеспечивает работу режима поиска ИИ от Google и стандартного опыта использования приложения Gemini.

Настоящая история заключается в том, что эта аномалия сигнализирует: Google делает ставку на то, что в гонке искусственного интеллекта победит не только самая большая модель, но и та, которая сделает «профессиональный» интеллект обыденным.

Создано для молниеносной скорости

Иллюстрация: Создано для мгновенной скорости
Иллюстрация: Создано для мгновенной скорости

Flash в названии Google — это не просто брендинг; это описание того, как модель ведет себя в вашем браузере. Gemini 3 Flash нацелен на получение ответов за доли секунды, сокращая задержку, из-за которой большинство AI-чатов воспринимается как ожидание на линии. Меньшая задержка означает, что ответы начинают поступать почти сразу же после нажатия клавиши "ввод", даже для многомодальных запросов с прикрепленными изображениями, аудио или видео.

Сравнивая с предыдущими моделями Google, прыжок впечатляющий. Gemini 3 Flash работает примерно в 3 раза быстрее, чем Gemini 2.5 Pro, при этом использует примерно на 30% меньше токенов для сложных этапов "мышления". Вы получаете профессиональное решение задач, таких как программирование и математика, но с отзывчивостью легкого помощника.

Скорость имеет решающее значение в тех случаях, когда люди уже ожидают мгновенных результатов: в поиске. Google незаметно сделал Gemini 3 Flash основой для приложения Gemini и режима ИИ в Google Search, как раз потому, что сокращение времени отклика на сотые доли миллисекунды меняет то, готовы ли пользователи принимать ответы ИИ вообще. Если поиск с ИИ кажется медленнее загрузки страницы с синей ссылкой, пользователи уходят.

С помощью Flash Google может встраивать объяснения ИИ, резюме и рекомендации прямо в результаты поиска, не создавая ощущения объезда. Попросите составить маршрут на выходные, быстрое резюме «Тонкого искусства пофигизма» и варианты ресторанов, и модель сможет быстро собрать, отсортировать и переписать информацию так, чтобы она соответствовала ритму нормального просмотра.

Этот профиль задержки открывает доступ к другому классу приложений: поистине реальным агентам. Flash может поддерживать инструменты, которые - смотрят потоковое видео в реальном времени и делают аннотации - слушают встречу и мгновенно находят документы - управляют кодирующими помощниками, которые обновляются по мере ввода текста, а не после паузы.

Поскольку его стоимость составляет примерно четверть от Gemini 3 Pro и около трети от GPT-5.2, разработчики могут держать этих агентов «всегда включенными», не выходя за рамки бюджета. В сочетании с мультимодальной поддержкой и практически мгновенными ответами, Gemini 3 Flash перестаёт ощущаться как чат-бот и начинает выглядеть как инфраструктура для непрерывного интерактивного ИИ.

Разбираем непревзойденную экономику

Назовите это тем, что оно есть: шок от цен. Gemini 3 Flash стоит примерно четверть от тарифов Gemini 3 Pro, около трети от GPT-5.2 и почти одну шестую от линейки Claude. Для компаний, которые смотрят на семизначные счета за облачные услуги, это не скидка; это перезагрузка.

Стоимость за миллион токенов обычно кажется абстрактной, но в масштабах она определяет, какие продукты существуют. Поставщик автоматизации поддержки, обрабатывающий 50 миллионов токенов в день, внезапно видит, как расходы на модель падают в 4 раза по сравнению с Pro и в 6 раз по сравнению с Claude. Эта разница может финансировать привлечения новых инженеров, снижать цены по сравнению с конкурентами или увеличивать маржу вместо OpenAI или Anthropic.

Высокообъемные рабочие процессы ощущают это наиболее ярко. Подумайте: - 10,000 торговых представителей с ИИ-ассистентами, составляющими электронные письма - Огромные кодовые базы, которые постоянно рефакторятся ботами - Медиаархивы, автоматически помеченные, резюмированные и переведённые

При таких объемах снижение всего на $0,50 за миллион токенов накапливается в миллионы ежегодно; Gemini 3 Flash снижает затраты значительно больше, при этом сопоставляя или превосходя Pro по показателям кодирования.

Google также говорит о «влиянии на токен», и здесь цифры подтверждают маркетинг. Результаты SWE-bench Verified показывают, что Flash набирает 78% по сравнению с 76% у Gemini 3 Pro, лишь немного отставая от 80% у GPT-5.2. Если Flash решает больше реальных задач на 1,000 токенов, предприятия покупают меньше токенов для достижения тех же бизнес-результатов.

Эффективность проявляется в поведении, а не только в метриках. Flash часто требует более коротких запросов и меньшего количества повторений, чтобы дать правильный ответ, особенно в кодировании и структурированном мышлении. Это означает меньшее расходование токенов как на вводе, так и на выводе, а также меньше "склеивающего" кода для команд, соединяющих агентов и рабочие процессы.

Стратегически такое ценообразование ставит конкурентов в неудобное положение. Чтобы соответствовать Flash по стоимости, OpenAI или Anthropic придется снизить свои собственные маржи; чтобы соответствовать по качеству при текущих ценах, они выглядят слишком дорогими для каждого финансового директора. Тем временем Google может объединить Flash в рамках Cloud, Workspace и Search, превращая дешевые токены в привлекательные корпоративные контракты.

Теперь всем, кто планирует масштабные внедрения ИИ, приходится оправдывать свой выбор не в пользу Flash. Показатели производительности и цены на Gemini 3 Flash – Google DeepMind выглядят скорее как предупреждающая этикетка для остальной отрасли, чем как технические характеристики.

Невероятный кодинговый крах

Тихой сенсацией Google не является новая ультрапремиум модель; это так называемая «легкая» версия. Gemini 3 Flash набрала 78% на SWE-bench Verified, опередив Gemini 3 Pro с её 76%, несмотря на цену, которая составляет примерно четверть от стоимости флагмана, и заметно более быструю работу. На бенчмарке, созданном для выявления слабоватыми рассуждений, бюджетный чип только что обошел флагман.

SWE-bench Verified — это не игрушечный лидерборд. Бенчмарк извлекает реальные проблемы из GitHub из крупных открытых Python проектов, предоставляет модели контекст репозитория и просит её создать конкретные патчи, которые действительно применяются, компилируются и проходят существующий тестовый набор. Никакого нечеткого псевдокода — либо патч исправляет ошибку, либо он не проходит.

Это делает SWE-bench редким измерением практических навыков программирования, а не лишь эффектного автозаполнения. Модели должны ориентироваться в незнакомых кодовых базах, соблюдать стиль проекта, учитывать зависимости и избегать нарушения независящего поведения. Разница в 2 балла на этом уровне означает сотни дополнительных исправленных проблем в наборе тестов.

Gemini 3 Flash с результатом 78% находится всего на 2% ниже GPT-5.2, который набрал 80%, и опережает своего "умнее" собрата. Для разработчиков это означает модель, которая может: - Читать запутанный сервисный репозиторий и выпускать работающие исправления ошибок - Реализовывать новые конечные точки или функции, которые проходят CI с первого раза - Рефакторить устаревшие утилиты, не взрывая при этом тесты на нижних уровнях

Изменения в стоимости влияют на уравнение даже больше, чем точность. При цене примерно в 1/4 от стоимости Gemini 3 Pro, около 1/3 от GPT-5.2 и 1/6 от сопоставимых моделей Claude, команды теперь могут на полную мощность использовать ИИ в своих рабочих процессах вместо того, чтобы экономить токены. Боты для ревью кода, генераторы тестов, помощники по миграции и помощники CI становятся экономически целесообразными в больших масштабах.

Разработчики, создающие агентов, ощущают это особенно сильно. Кодирующий агент, который выполняет итерации по патчам, повторно запускает тесты и заново просматривает логи, может сжигать миллионы токенов в день. Запуск этого цикла на Gemini 3 Flash вместо премиум-уровня сокращает расходы на инференс, одновременно увеличивая успешность патчей по бенчмарку, созданному для агентов.

Как модель «Flash» смогла это осуществить? Google намекает на более эффективную архитектуру и обучение, а поведение соответствует стратегии дистилляции: сжать выводы Gemini 3 Pro в более маленького и быстрого студента, при этом тщательно подбирая код, тесты и задачи в масштабе репозитория. Улучшенное подкрепление на основе результатов тестов и широкомасштабная обработка изменений GitHub также могут склонить модель к правкам, которые компилируются и проходят проверку.

Архитектура объясняет лишь половину истории; важны также приемы вывода. По сообщению, Flash использует примерно на 30% меньше токенов для "размышлений" по сравнению с предыдущими поколениями, что говорит о агрессивной оптимизации запросов и внутреннем планировании, которое тратит меньше токенов на избыточное рассуждение. Для разработчиков это выражается в более быстрых откликах, меньших контекстных окнах и большем количестве попыток за доллар.

В совокупности, оценка 78% по стандарту SWE-bench при ценах Flash переписывает ментальную модель «Профессиональный» против «дешёвого» уровня. Кодировочная модель, к которой вы привыкли, может больше не быть самой важной, а скорее той, которая исправляет наибольшее количество ошибок в процентном соотношении.

Универсальный специалист в компактном формате

Иллюстрация: Умница в компактном исполнении
Иллюстрация: Умница в компактном исполнении

Полимат, возможно, единственное точное слово в данном случае. Gemini 3 Flash демонстрирует уровни производительности на уровне передовых технологий не только в коде, но и в математике, знаниях и многомодальном рассуждении, при этом сохраняя ярлык «легковесный». Google продолжает называть его Профессиональным уровнем рассуждений на скорости Flash, и — впервые — рекламный текст соответствует установленным стандартам.

Начните с математики, традиционно сложной области для небольших, быстрых моделей. На AIME 2025, известном своей строгостью в оценке математических навыков, Gemini 3 Flash набирает от 95% до 99%, почти догоняя результат GPT-5.2, близкий к 100%. Это ставит его в один ряд с моделями, специализирующимися на "высокой" математике, несмотря на его оптимизированный для низкой задержки дизайн.

Общие знания и логическое мышление рассказывают похожую историю. В Последнем Экзамене Человечества (Arc AGI2) Flash набирает около 33.6–33.7%, что ниже 37.5% Gemini 3 Pro, но практически на одном уровне с GPT-5.2, у которого 34.5%. В сравнении с 11% Gemini 2.5, этот результат не является простым увеличением; это скачок на уровне целого поколения в широкомасштабном рассуждении.

Мультимодальные тесты показывают, что это не односторонний текстовый движок. На MMMU-Pro, мультимодальном университете, Gemini 3 Flash достигает 81,2%, опережая GPT-5.2 и занимая первое место в рейтинге. Это означает, что так называемая "дешевая" модель теперь лидирует в сложных задачах рассуждения с изображениями и текстами, которые ранее требовали самых громоздких и медленных систем.

В целом, профиль выглядит меньше как сокращенный помощник и больше как сжатый флагман. Flash уступает Pro в некоторых чистых оценках рассуждений, но незначительно, и безусловно выигрывает в программировании, сохраняя при этом математику и общие знания на том же конкурентном уровне. Для многих задач такая сделка — слегка более низкие достижения в ущерб значительно более низким затратам и задержкам — кажется безальтернативной.

Презентация Google о том, что «скорость и масштаб не обязательно должны обходиться в ущерб интеллекту», звучит менее как подтасовка, когда модель с четвертью стоимости может почти сравняться или превзойти Pro по программированию, математике и мультимодальным тестам. Gemini 3 Flash ведет себя как самородок в компактном пакете, обеспечивая широкий, профессиональный уровень рассуждений по цене и скорости, которые делают использование чего-то большего излишним.

Ваш ИИ теперь может наблюдать, слушать и учиться.

Ваша новая «быстрая» модель Gemini делает не только чтение и запись. Gemini 3 Flash изначально принимает текст, изображения, аудио и полные видеопотоки, а затем анализирует их за один раз, без громоздких переключений режимов или отдельных загрузок. Вы указываете ей файл или URL, и она рассматривает всё внутри — кадры, звуки, текст на экране — как одну единую задачу.

Собственные демонстрации Google сильно опираются на видео. Передайте Flash запись вашего уикенд-матча по пиклболу, и он проведет покадровый анализ: кто не на месте, какие удары вы постоянно пропускаете, как нарушается техника вашей подачи. Затем это превращается в аннотированный план тренировок с временными метками и замедленными комментариями.

Аудио получает аналогичное внимание. Загрузите эпизод подкаста или лекцию, и Flash не только транскрибирует его, но также создает структурированный тест, резюме и список дополнительной литературы. Попросите "пять вопросов, которые затруднят студента на промежуточном экзамене", и он на лету подбирает уровень сложности, извлекая ключевые концепции из звуковой волны, а не только из транскрипта.

За кулисами это проявляется в бенчмарках. На MMMU-Pro, жестком мультимодальном экзамене, охватывающем диаграммы, графики, фотографии и технические фигуры, Gemini 3 Flash набирает 81,2%, немного обгоняя GPT-5.2 и опережая предыдущие модели Google. Эта цифра фактически говорит о том, что эта «облегченная» модель теперь находится на переднем крае в области reasoning, связанного с визуальным восприятием и языком.

Для создателей это открывает новые рабочие процессы. Ютубер может загрузить необработанные видео, попросить Flash найти каждый момент, когда продукт появляется на экране, а затем автоматически создать предложения для B-roll, названия глав и сценарии для коротких видео. TikTok-образователь может записать короткое голосовое сообщение и позволить Flash разработать уникальные крючки, подписи и тексты для миниатюр, адаптированные для платформы.

Аналитики получают другую суперсилу. Представьте, что вы перетаскиваете папку с аудиозаписями финансовых звонков, слайд-презентациями и фотографиями продуктов в один запрос и спрашиваете о рисках или конкурентной информации. Мгновенно производится перекрестная проверка произнесенных утверждений с графиками и мелким шрифтом, для чего старые «текстовые» инструменты требовали три разных инструмента для приблизительного решения.

Разработчики могут интегрировать это всё в приложения, используя Руководство разработчика Gemini 3 – API Gemini, рассматривая мультимодальный ввод как первоклассный элемент. Тем временем обычные пользователи видят лишь одно: их ИИ наконец-то наблюдает, слушает и читает мир так, как это делаю они.

Секретное оружие Google для поиска

Google тихонько превращает Gemini 3 Flash в свой новый стандартный мозг. Откройте приложение Gemini или включите режим ИИ в Поиске Google, и вы больше не общаетесь с Gemini 2.5 Flash или Gemini 3 Pro — вы обращаетесь к модели, настроенной на скорость, стоимость и "достаточно хорошую" интеллектуальность в глобальном масштабе.

Поиск зависит от задержки. Пользователи покидают страницу, если результат кажется медленнее обычного запроса в Google, поэтому модель, отвечающая в один миг, важнее той, которая выдает несколько лишних баллов в бенчмарке. Gemini 3 Flash работает примерно в 3 раза быстрее, чем предыдущие модели Pro-класса, и использует примерно на 30% меньше токенов для многих задач рассуждения, что напрямую сокращает как время ожидания, так и счета за сервер.

Решение Google выглядит жестко прагматичным: направить 99% повседневных вопросов — сводки, инструкции, покупки, быстрые сравнительные оценки — к Flash, а оставить Gemini 3 Pro для крайних случаев, которые действительно требуют весомой логики. При стоимости Flash примерно 1/4 от Gemini 3 Pro, 1/3 от GPT-5.2 и 1/6 от семейства Claude за миллион токенов, такая замена превращается в колоссальную экономию в масштабах Google.

Эта экономика становится оружием, когда вы подключаете её к доминирующему поисковику мира. Каждое панельное решение AI, каждый последующий вопрос, каждый мультимодальный запрос (скриншот, фотография продукта, видеоклип) теперь работает на модели, которая не только дешевле, но и конкурентоспособна по качеству: 78% на SWE-bench Verified coding, 33.7% на Humanity’s Last Exam и 81.2% на MMMU-Pro.

Конкуренты, такие как OpenAI, Anthropic и Meta, должны оплачивать собственные затраты на индукцию или договариваться о размещении, пытаясь сопоставить скорость и цены Google на фронтэнде. Тем временем Google может перекрывать расходы на Flash за счет рекламы, Android, Chrome и YouTube, и при этом демократизировать цены своих конкурентов по запросам, не позволяя пользователям видеть выбор модели.

Таким образом, когда Мэттью Берман задает вопрос: “Закончила ли Google борьбу с конкурентами?”, он на самом деле спрашивает, означает ли распределение поиска в сочетании с ультраэффективной моделью конец эры автономных чат-ботов. Если теперь стандартный способ, которым миллиарды людей «общаются с ИИ», — это поисковая строка Google на базе Gemini 3 Flash, то все остальные стали просто необязательным дополнением.

Флэш против Голиафа: Вызов GPT-5.2

Иллюстрация: Флэш против Голиафа: Битва с GPT-5.2
Иллюстрация: Флэш против Голиафа: Битва с GPT-5.2

Новый спринтер от Google теперь соревнуется с марафонцем от OpenAI. По сырым показателям Gemini 3 Flash лишь немного отстает от GPT-5.2, не на километры. SWE-bench Verified зафиксировал результат Flash на уровне 78%, по сравнению с 80% у GPT-5.2, разница достаточно мала, чтобы затеряться в реальных рабочих процессах, особенно если учитывать задержки и стоимость.

Последний экзамен человечества рассказывает ту же историю. Flash достигает 33,7%, GPT-5.2 — 34,5% — это погрешность округления в мире бенчмарков, но сейсмический сдвиг в рыночном позиционировании. Google теперь предлагает разум near-frontier как бюджетный вариант, а не роскошный уровень.

Размер контекстного окна по-прежнему в пользу OpenAI. Flash обрабатывает примерно 17,000 токенов, в то время как Gemini 3 Pro достигает около 24,000, а GPT-5.2, вероятно, значительно превышает оба. Для длительных исследовательских отчетов, многодокументных юридических анализов или глубокого изучения кода эта дополнительная свобода все еще важна.

Торговые сделки выглядят иначе, когда вы прикрепляете к ним денежный знак. Flash стоит примерно треть от цены GPT-5.2 и шестую часть цены моделей Claude, при этом он также обходится дешевле Gemini 3 Pro, стоя лишь четверть от его стоимости. Для команд, выполняющих тысячи или миллионы вызовов в день, эта разница перестает быть академической и начинает восприниматься как статья бюджета.

Паритет производительности выходит за рамки кодирования и рассуждений. В Arc AGI2 / Последнем экзамене человечества Flash с 33.6–33.7% немного отстаёт от GPT-5.2 менее чем на процент, при этом опережая почти каждую другую модель. На мультимодальных тестах, таких как MMMU-Pro, Flash достигает 81.2%, обходя GPT-5.2 и подтверждая, что «лёгкая» модель Google способна обрабатывать изображения и диаграммы на поистине элитном уровне.

Где GPT-5.2, вероятно, по-прежнему доминирует, так это в экстремальном контексте и крайних случаях аналитики, которые поддерживают тяжеловесных агентов, многочасовое планирование или обширные корпоративные графы знаний. Более крупные контекстные окна и потенциально более глубокие цепочки размышлений предоставляют OpenAI больше свободы действий в этих сценариях. Flash, в свою очередь, оптимизирует скорость, эффективность токенов и «достаточно хорошую» общую интеллигенцию в масштабах.

Этот компромисс создает новую конкурентную динамику. Вместо выбора между дешевым игрушечным устройством и дорогой передовой системой, разработчики теперь видят почти передовой вариант по цене, сопоставимой с инфраструктурой, а не с роскошным API. Для многих продуктов — поиска, поддержки, помощников по программированию, легких агентов — Gemini 3 Flash делает GPT-5.2 менее стандартным решением и больше похожим на премиум-апгрейд.

Разблокировка приложений нового поколения и рабочих процессов

Скорость, интеллект и цена наконец-то слились в единое целое, меняя то, что вы можете отправить. Gemini 3 Flash работает примерно за 1/4 стоимости Gemini 3 Pro и около 1/3 от GPT-5.2, при этом сохраняя 78% SWE-bench Verified результат. Эта комбинация переносит множество ранее теоретических ИИ-продуктов в область «запустите это для миллионов пользователей, не поджигая при этом финансового директора».

Поддержка клиентов является самым очевидным узким местом. Вместо одного медленного, монолитного чат-бота компании могут запустить рой специализированных агентов: один настроен на вопросы биллинга, другой — на техническую диагностику, третий — на отмены и поддержание клиентской базы. Каждый агент может выполнять десятки быстрых шагов мышления на запрос — извлекая документы, проверяя историю аккаунта, предлагая решения — не превышая допустимую задержку для окна живого чата.

Финансовые команды получают обновление нового типа. Низкая стоимость токенов Flash позволяет осуществлять потоковую аналитику в реальном времени по тысячам тикеров, новостных лент и отчетов. Вы можете представить себе панели управления, на которых агент непрерывно переписывает резюме рисков, подмечает аномалии в потоках транзакций и моделирует сценарии «что, если» по мере движения рынка, все это с ответами менее чем за секунду.

Модерация контента становится гораздо более жизнеспособной в крупных масштабах. Один-единственный модель, которая может читать текст, анализировать изображения и очищать короткие видео, может оценивать и распределять посты за один проход. С ценами Flash — $0,50 за миллион входящих токенов и $3,00 за миллион выходящих токенов — платформы могут позволить себе многоступенчатые процессы проверки: первичный отбор, рассмотрение апелляций и объяснение политик, вместо одного грубого фильтра.

Агентные рабочие процессы – это место, где это становится невероятно мощным. Поскольку Flash может выполнять множество небольших, умных действий быстро, вы можете создавать системы, которые: - Обсуждают и подводят итоги тысяч документов - Создают и тестируют копии в разных каналах - Обрабатывают заявки, обновляют CRM и запускают автоматизацию

Разработчики получают не просто более быстрый конечный пункт чата; они получают оркестрационный движок. В Gemini 3 Flash на Vertex AI Google акцентирует внимание на этом, предлагая многоагентные настройки, которые объединяют десятки вызовов для планирования, использования инструментов и проверки. С в три раза большей скоростью, чем у старых моделей Pro-класса, и с 30% меньшим количеством необходимых «мыслящих» токенов, эти агентские стеки наконец выглядят как производственное программное обеспечение, а не дорогие демо-версии.

Новый закон ИИ: Эффективность - король

Эффективность, а не количество параметров, теперь определяет передовые технологии потребительского ИИ. Gemini 3 Flash отражает этот сдвиг: так называемая "легкая" модель, которая в 4 раза дешевле Gemini 3 Pro, при этом превосходя его по производительности в кодировании, подтвержденной SWE-bench Verified (78% против 76%) и оставаясь в пределах досягаемости 80% от GPT-5.2.

На протяжении десятилетия лаборатории продавали простую идею: большие модели, больше FLOPs, лучшие результаты. Gemini 3 Flash разрушает этот нарратив на публике, а не в исследовательском блоге, становясь стандартным «умом» Google в приложении Gemini и AI-режиме в Поиске, несмотря на больший контекстный окно Pro (24,000 против ~17,000 токенов Flash) и более сложную архитектуру.

Теперь производительность за доллар важнее, чем слава в таблицах лидеров. При цене около $0.50 за миллион входных токенов и $3.00 за миллион выходных токенов, Flash предлагает: - Подтверждено SWE-bench: 78% по цене 1/4 от Pro - Последний экзамен человечества / Arc AGI2: ~33.6–33.7%, всего в пункте от 34.5% GPT-5.2 - AIME 2025: 95–99%, практически соответствует GPT-5 Extra High

Гиперактивная эффективность меняет, какие продукты становятся жизнеспособными. Модель, которая в 3 раза быстрее Gemini 2.5 Pro, использует примерно на 30% меньше "мыслительных" токенов и обрабатывает видео, изображения и аудио в одном стеке, делает доступными агентов с низкой задержкой, реального времени копилотов и мультимодальный поиск в экономическом масштабе, а не только в демонстрациях.

Сообщение Google однозначно: «скорость и масштаб не должны жертвовать интеллекту». Ожидайте, что следующая волна моделей Gemini будет оптимизировать токены на задачу, повторное использование кеша и мультимодальную компрессию, а не стремиться к всё более крупным монолитам, с рассуждениями в стиле Pro, сгруппированными в рендеринги класса Flash.

Соперникам придется следовать. OpenAI, Anthropic, Meta и Mistral теперь конкурируют не только по показателям в стиле IQ, но и по количеству реальных задач, которые можно решить с помощью миллиона токенов. Новый закон ИИ благоприятствует тем, кто сможет извлечь максимальную отдачу и доход из каждого отдельного токена.

Часто задаваемые вопросы

Что такое Gemini 3 Flash?

Gemini 3 Flash — последняя версия ИИ-модели от Google, разработанная для высокой скорости и экономии затрат. Она специализируется на задачах с высоким объемом и низкой задержкой, сохраняя при этом профессиональные навыки рассуждения.

Как Gemini 3 Flash лучше, чем Gemini 3 Pro?

Хотя Gemini 3 Pro более мощен для сложного логического анализа, Gemini 3 Flash значительно быстрее, стоит примерно в четыре раза меньше и удивительно превосходит Pro по определённым критериям, таким как программирование (проверка SWE-bench).

Каковы основные области применения Gemini 3 Flash?

Его основные области применения включают в себя чат-ботов в реальном времени, анализ данных в режиме реального времени, транскрипцию видео и аудио, а также обеспечение автономных рабочих процессов, где скорость и стоимость являются критическими факторами для масштабируемости.

Является ли Gemini 3 Flash бесплатным для использования?

Gemini 3 Flash теперь является моделью по умолчанию в бесплатном приложении Gemini. Для разработчиков и компаний, использующих API, предусмотрена конкурентная ценовая структура на основе использования токенов, которая значительно ниже, чем у Gemini 3 Pro и других моделей.

Frequently Asked Questions

Аномалия ИИ: Дешевле, Быстрее и Умнее?
Google только что совершил парадокс в области ИИ: его новый «легкий» Gemini 3 Flash обходит флагманский Gemini 3 Pro в том, что наиболее важно для разработчиков — в программировании. На SWE-bench Verified, одном из самых сложных реальных бенчмарков в области программной инженерии, Flash набирает 78% при 76% у Pro, при этом предлагая более низкую цену и меньшую задержку.
Что такое Gemini 3 Flash?
Gemini 3 Flash — последняя версия ИИ-модели от Google, разработанная для высокой скорости и экономии затрат. Она специализируется на задачах с высоким объемом и низкой задержкой, сохраняя при этом профессиональные навыки рассуждения.
Как Gemini 3 Flash лучше, чем Gemini 3 Pro?
Хотя Gemini 3 Pro более мощен для сложного логического анализа, Gemini 3 Flash значительно быстрее, стоит примерно в четыре раза меньше и удивительно превосходит Pro по определённым критериям, таким как программирование .
Каковы основные области применения Gemini 3 Flash?
Его основные области применения включают в себя чат-ботов в реальном времени, анализ данных в режиме реального времени, транскрипцию видео и аудио, а также обеспечение автономных рабочих процессов, где скорость и стоимость являются критическими факторами для масштабируемости.
Является ли Gemini 3 Flash бесплатным для использования?
Gemini 3 Flash теперь является моделью по умолчанию в бесплатном приложении Gemini. Для разработчиков и компаний, использующих API, предусмотрена конкурентная ценовая структура на основе использования токенов, которая значительно ниже, чем у Gemini 3 Pro и других моделей.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts