TL;DR / Key Takeaways
Архитектор Трансформеров заявляет, что пора двигаться дальше.
Архитектор современного бума ИИ теперь хочет уничтожить свое собственное творение. Ллион Джонс, один из восьми авторов статьи Google 2017 года «Внимание — это все, что вам нужно», утверждает, что эпоха трансформеров подходит к концу и что «пришло время двигаться дальше от трансформеров». С новой должности технического директора и соучредителя Sakana AI Labs Джонс поддерживает радикально другую архитектуру, называемую Непрерывные мыслительные машины, которая рассматривает мышление как процесс, а не одноразовое действие.
Трансформеры превратили предсказание следующего слова в универсальный интерфейс, который стал основой для GPT-4, Gemini, Claude и почти каждой крупной языковой модели. Однако простое увеличение их масштаба — больше параметров, больше данных, больше GPU — начало сталкиваться с убывающей отдачей, поскольку недавние исследования о «пределах масштабируемости» указывают на то, что предельные выгоды уменьшаются даже тогда, когда затраты на обучение взлетают до десятков или сотен миллионов долларов за модель на переднем крае. Основная критика: эти системы по-прежнему испытывают трудности с многошаговым рассуждением, хрупкой логикой и задачами, которые требуют планирования на длительные сроки, а не просто повторения шаблонов.
Эта критика приобретает другой вес, когда ее высказывает человек, который сам помогал разрабатывать внимание. Когда архитектор оригинального трансформера заявляет, что области нужны новые чертежи, это сигнализирует о том, что крупные лаборатории уже ищут пост-трансформерные парадигмы, вместо того чтобы предполагать, что кривые масштабирования их выручилят. Джонс и Сакана делают ставку на нейроэволюцию и динамические системы — они ищут сети, которые эволюционируют внутреннее состояние со временем, ближе к тому, как функционируют биологические мозги.
Непрерывные Машины Мысли, как описано в работе Саканы, наделяют каждый «нейрон» небольшой памятью и локальным правилом обновления, после чего позволяют тысячам этих мини-мозгов взаимодействовать на протяжении многих внутренних шагов. Вместо одной прямой обработки от запроса к ответу модель выполняет внутренние «тика», где она вновь рассматривает задачу, уточняет промежуточные представления и даже может изменить свое мнение перед выдачей результата. Это преобразует вычисление из статического сопоставления паттернов в непрерывный процесс.
Это новая линия разлома: модели, которые просто предсказывают следующий токен, против систем, которые обрабатывают информацию во времени. Поворот Джонса ознаменовывает начало новой гонки по созданию ИИ, который не просто дополняет наши предложения, но и действительно размышляет между ними.
Радикальная ставка Sakana AI: Непрерывная мыслительная машина
Sakana AI Labs ставит на то, что Непрерывные Мыслительные Машины — это то, что следует за трансформерами. Сооснователь Ллион Джонс, один из восьми авторов статьи «Attention Is All You Need», утверждает, что стартап из Токио только что привлек финансирование Серии B для разработки НММ как радикального разрыва с архитектурой, которая поддерживала GPT-4, Gemini и Claude.
Вместо того чтобы "выстрелить" один раз и забыть, CTM рассматривает мышление как непрерывный внутренний процесс. Стандартный трансформер выполняет один проход вперед по вашему запросу, производит токен на выходе и затем избавляется почти от всего внутреннего состояния; CTM продолжает "обдумывать" проблему, обновляя свои внутренние динамики на протяжении множества небольших шагов, прежде чем принять решение.
Каждый "нейрон" CTM работает не как простой мультипликатор, а скорее как мини-мозг с собственной памятью. Нейроны несут крошечный вектор состояния, который сохраняется со временем, позволяя им запомнить, что произошло несколько шагов назад, обновлять себя и влиять на будущие вычисления, основываясь на этой развивающейся истории.
Публикация Саканы описывает модель как синхронизированное стадо этих состояний. Вместо того чтобы рассматривать активации как одноразовые числа, CTM отслеживает, как активности нейронов повышаются и понижаются вместе; эти синхронные паттерны — кто «танцует» в унисон с кем — становятся основной представительной валютой, аналогичной ритмическому возбуждению в биологических нейронных цепях.
Это делает CTM принципиально отличным от безгосударственных нейронов в современных преобразователях. Основные LLM имитируют обдумывание, добавляя больше слоев или выбирая больше токенов, но каждый слой просто вычисляет f(x) и переходит к следующему; ни один отдельный элемент не сохраняет память о своем прошлом поведении.
CTM также включает явное "время размышлений". Система может работать переменное количество внутренних тиков — короткое время для простых задач, дольше для сложных — прежде чем предоставить результат, что отражает то, как люди берут дополнительные циклы для решения сложных головоломок или математических задач.
Сакана описывает это не как оптимизацию производительности, а как полное переосмысление того, что такое модель. Вместо более крупных блоков прямого вывода, CTM предлагает постоянно развивающуюся динамическую систему в качестве основного субстрата машинного рассуждения.
Внутри CTM: Нейроны с воспоминаниями и собственными мыслями
CTM начинает с переосмысления того, чем может быть нейрон. Вместо простого блока "Я увидел это, я вывел то" каждый нейрон CTM несет в себе свое внутреннее состояние — маленький блокнот, который сохраняется на протяжении временных шагов. Тысячи этих мини-мозгов обновляют свои воспоминания с cada тик, как крошечные существа, ведающие дневники о том, что они только что увидели и чего ожидают увидеть дальше.
Эти дневники важны, потому что CTM не мыслит в виде единичных кадров. Модель проходит через несколько внутренних шагов, обновляя состояние каждого нейрона снова и снова, прежде чем прийти к ответу. Сложные задачи вызывают большее количество шагов, поэтому система фактически выбирает, сколько времени мыслить, вместо того чтобы быть привязанной к одному проходу вперёд для каждого входа.
Представление также выглядит иначе. Вместо того чтобы рассматривать значение как статический вектор, CTM кодирует свои «мысли» в том, как активности нейронов поднимаются и падают вместе с течением времени — синхронизация как представление. Когда активности двух нейронов пульсируют в унисон, CTM рассматривает этот координированный ритм как признак того, что они совместно кодируют концепцию.
Представьте себе стадион танцоров, исполняющих строго хореографированный номер. Поза отдельного танцора мало что значит; смысл возникает из того, кто движется с кем и когда. CTM опирается на эти временные паттерны синхронности, используя их в качестве основы для концепций, планов и промежуточных шагов рассуждения.
Заставить нейроны вести себя таким образом — это не то, что можно прописать вручную. Sakana AI использует нейроэволюцию, применяя эволюционные алгоритмы для поиска правил обновления нейронов, схем соединений и динамических поведения. Вместо чистого градиентного спуска, формирующего фиксированную архитектуру, эволюция предлагает странные новые мини-мозговые конструкции, и только самые способные выживают.
Это резкий разрыв с основными крупными языковыми моделями, где почти всё — от паттернов внимания до форм слоёв — определяется градиентным спуском на трансформерном стеке. Здесь градиентный спуск становится одним из инструментов в рамках более масштабного процесса поиска, который может мутировать, комбинировать и полностью отвергать поведение нейронов. В результате получается зоопарк специализированных типов нейронов с удивительно богатыми динамическими характеристиками.
Этот переход к динамическим, состоянием управляемым вычислениям перекликается с более широкими работами по непрерывному и вложенному обучению, выходящими от Google и других. Читатели, следящие за этими тенденциями, могут ознакомиться с последними новостями AI, которые мы анонсировали в ноябре - обновления Google AI, чтобы увидеть, как крупные лаборатории также исследуют архитектуры, которые думают во времени, а не в одноразовых всплесках. Вместе они указывают на AI-системы, которые ощущаются меньше как статические калькуляторы и больше как эволюционные, всегда активные мыслительные процессы.
Почему «Долгое мышление» открывает более глубокое рассуждение
Мозги становятся более интересными, когда они перестают мгновенно отвечать и начинают размышлять. Непрерывные Машины Мысли внедряют этот цикл на уровне аппаратного обеспечения мышления, обеспечивая модели явные «внутренние такты», в которых она может обновлять свое скрытое состояние, пересматривать частичные планы и только потом говорить. Эти такты сильно напоминают тактовый цикл когниции: дискретные, поддающиеся подсчету шаги рассуждения, которые полностью происходят внутри сети, без выдачи промежуточного текста или вызовов инструментов.
Каждый тик продвигает внутреннюю динамику тысяч крошечных нейронов с состоянием. Вместо одного прохода от входа к выходу, CTM многократно запускает ту же нейронную цепь, позволяя информации распространяться, устанавливаться и иногда возвращаться. Большее количество тиков буквально означает больше времени на размышления, и система может увеличивать это время для более сложных задач, так же как люди задерживаются на трудной головоломке.
Этот дополнительный запас времени наиболее очевиден в задачах, в которых трансформеры обычно сталкиваются с трудностями. В экспериментах по решению лабиринтов агенты CTM могут планировать пути через лабиринты, которые больше любых, с которыми они сталкивались во время обучения, эффективно экстраполируя свою стратегию вместо запоминания планов. Каждый внутренний шаг позволяет модели мысленно «проходить» еще несколько шагов, возвращаться от тупиков и распространять ограничения по сетке.
Стандартные трансформеры испытывают трудности здесь, потому что они сжимают весь лабиринт и решение в одну или две проходки внимания. Длина контекста и количество параметров становятся жесткими лимитами. Итеративный цикл CTM декомпозирует глубину рассуждения от размера модели: небольшая сеть может работать 50, 100 или 500 тактов, если проблема требует этого, обменивая время на понимание.
Исследователи также проверили CTM на алгоритмических задачах с игрушечными примерами. Модель научилась простым алгоритмам, таким как правила "перевернуть ответ" в математических задачах и сортировать числа в порядке возрастания. Важно, что она делала это процедурно: числа перемещались на свои места за последовательные шаги, отражая учебные принципы сортировки, а не одноразовое сопоставление шаблонов.
Этот процедурный характер напрямую связывает CTM сobsессией индустрии к осознанному, многоступенчатому рассуждению. Семейство o1 компании OpenAI, "подсказки цепочкой размышлений" от Google и агенты с использованием инструментов добавляют дополнительные циклы вокруг трансформеров. CTM встраивает цикл непосредственно в саму архитектуру, превращая многоступенчатое рассуждение из хитрости подсказки в вычислительный примитив высшего класса.
Революция эффективности Deepseek для длинного контекста
Радикально новые архитектуры, вдохновленные работой мозга, такие как CTM, привлекают большое внимание, но более тихая революция может быть не менее важной: сделать современные трансформеры радикально дешевле для масштабирования. Здесь на помощь приходит Deepseek Sparse Attention (DSA), не заменяя трансформеры, а устраняя их наиболее болезненное узкое место.
Стандартное самообращение страдает от жестокой математике. Для контекста из N токенов затраты на внимание растут как O(N²), потому что каждый токен сравнивает себя с каждым другим токеном. Увеличьте контекст с 8,000 до 1,000,000 токенов, и вы не просто добавляете затраты, вы взрываете их в 15,625 раз.
Этот квадратичный предел убивает многие мечты о моделях «бесконечного контекста», которые запоминают целые кодовые базы, многодневные чаты или обширные исследовательские архивы. Даже с кластерами GPU обработка сотен тысяч токенов в полном разрешении требует значительных объемов памяти, энергии и времени отклика. Вы чувствуете эту цену каждый раз, когда модели с долгим контекстом замедляются до ползучего состояния.
Ответ Deepseek: не обращайте внимание на всё, обращайте внимание на то, что важно. DSA добавляет новый модуль, так называемый молниеносный индексатор, к стеку трансформеров, чтобы каждый токен мог быстро анализировать прошлое, вместо того чтобы наивно его перечитывать.
Указатель молнии работает как поисковая система по токенам. Для каждого нового токена он быстро сканирует все предыдущие токены, присваивает им оценку релевантности и выбирает только лучшие K кандидатов для полного внимания. K остается небольшим и фиксированным — десятки или сотни — в то время как N может достигать миллионов.
Подумайте об этом как о прочтении только выделенных заметок в учебнике вместо повторного чтения каждой строки на каждой странице, прежде чем отвечать на вопрос. Вы все равно основываете свой ответ на книге, но пропускаете неактуальные главы и заметки на полях, которые только отнимали бы время.
Под капотом это превращает внимание из квадратичного в грубое O(N·K), что ведет себя линейно, пока K остается ограниченным. Этот переход открывает возможность для очень длинных контекстов на современном оборудовании, делая "передовой интеллект" менее зависимым от наращивания числа графических процессоров и больше ориентированным на более умное определение, на что смотрят модели.
Создание контекста с миллионом токенов в реальность
Миллион-токенный контекст когда-то звучал как маркетинговая фантазия. Sparse Attention (DSA) от Deepseek превращает это в вопрос о бюджетировании. Путем того, что вычисления и память масштабируются примерно линейно с длиной последовательности, а не квадратично, DSA значительно снижает затраты на анализ огромных историй, от чатов до кодовых баз.
Традиционное внимание заставляет каждый токен сравниваться с каждым другим токеном. На 128K токенов это уже означает более 16 миллиардов попарных сравнений на уровне; на 1 миллион токенов вы сталкиваетесь с более чем триллионом взаимодействий, и оборудование не справляется. Легкий индексатор DSA обходит это, оценивая релевантность и обращая внимание только на топ-K токенов, которые имеют значение.
Линейные изменения в масштабировании меняют подход инженеров к выводу продуктов на рынок. Контекстные окна в 256K или 512K токенов переходят от «демонстрации один раз на кластере A100» к «ежедневному использованию для клиентов без сбоев». Контексты на один миллион токенов перестают быть научными проектами и начинают выглядеть как жизнеспособный продукт для корпоративных помощников и исследовательских инструментов.
Теперь все программные репозитории могут уместиться в одном контексте: каждый микросервис, каждая миграция, каждый нестабильный тест. Модель с длинным контекстом может проследить баг от недавнего стека вызовов назад через годы коммитов, проектных документов и обсуждений, предлагая решение, которое учитывает всё это. Сложные рефакторы, охватывающие сотни файлов, становятся единым процессом рассуждения, а не хрупкой цепочкой подсказок.
Агенты на основе обучения с подкреплением получают еще больше преимуществ. С историями в миллион токенов RL-система может учитывать: - Месяцы игровых траекторий - Полные торговые логи в разных режимах - Долгосрочные запуски роботов с редкими сбоями
Такая глубина позволяет агентам учиться на пограничных случаях, не отрезая ту обстановку, которая их вызвала. Моделирование с длинным контекстом также значительно усиливает научных помощников, таких как те, которые описаны в статье Ускорение науки с помощью GPT-5 – OpenAI, которые могут хранить полные журналы экспериментов, литературные обзоры и сырые данные в активной памяти. Эффективность в стиле DSA становится основным фактором для следующей волны контекстно-осознающих AI-агентов, которые рассуждают о целых мирах, а не о фрагментах.
Новая работа GPT-5: Ускорение научных открытий
GPT-5 тихо проходит испытания на новую роль: партнера в лаборатории для некоторых из самых умных людей на планете. Последняя исследовательская программа OpenAI помещает модель в реальные лаборатории Оксфорда, Кембриджа, Гарварда и других ведущих учреждений, чтобы не подводить итоги учебников, а решать актуальные, нерешённые задачи.
Согласно отчету OpenAI "Ускорение науки с помощью GPT-5", исследователи использовали модель для решения передовых вопросов в биологии, химии и физике. Это были не тестовые задачи или синтетические задания; это были те же самые сложные, высокие риски проблемы, которые обычно требуют месяцы работы постдока и большие бюджеты грантов.
Описание работы GPT-5 больше похоже не на «робота-ученого», а на сверхбыстрого, знающего исследовательского партнера. Ученые просили его предложить гипотезы, спроектировать эксперименты, критиковать методы и анализировать обширные объемы литературы, которые не может полностью отслеживать ни один человек. Модель генерировала потенциальные механизмы, предлагала альтернативные контроли и переформулировала сложную математику или доказательства в более понятные, проверяемые шаги.
OpenAI подчеркивает, что люди оставались на первом месте. Каждое предложение GPT-5 проходило через экспертов в области, которые фильтровали, корректировали и иногда отвергали его идеи. Система действовала как множитель силы: ускоряя обзор литературы, выявляя редкие, но актуальные статьи и перечисляя крайние случаи, которые занятые исследователи могут пропустить.
Ранние анекдоты из исследования напоминают рекомендации по повышению продуктивности для научного метода. Одна группа использовала GPT-5 для того, чтобы: - Прочитать сотни статей в поисках противоречивых результатов - Предложить единые объяснения для несоответствий - Составить новые экспериментальные установки для проверки этих объяснений
Другая команда использовала GPT-5 для исследования комбинаторных пространств дизайна, которые выходят за пределы человеческой рабочей памяти — оптимизируя параметры, материалы или молекулярные структуры среди тысяч возможностей. Модель выполнила скучный поиск; люди решали, какие направления действительно имеют смысл.
Ключевым моментом является то, что OpenAI не позиционирует GPT-5 как оракула, который «решает научные задачи». Вместо этого в статье представлена идея о дополненной когнитивной способности для лабораторий: система, которая сокращает дни чтения до минут, генерирует десятки правдоподобных последующих шагов и освобождает человеческих исследователей, чтобы они могли уделять больше времени суждениям, интуиции и практическим экспериментам.
Разгадака медицинских тайн и решение древних математических задач
Ускорение науки кажется абстрактным, пока GPT-5 не начнет в реальном времени переписывать лабораторные записки и работы по теории чисел.
Собственные кейс-стадии OpenAI читаются как научная фантастика. В одном эксперименте иммунологи предоставили GPT-5 неопубликованный график из человеческого исследования: временной ряд, показывающий странный всплеск и падение в определенной популяции иммунных клеток после лечения. Никто из команды не смог дать удовлетворительное механистическое объяснение для этой закономерности.
GPT-5 не просто резюмировал диаграмму; он предложил новый биологический механизм. Модель предположила, что временный всплеск определенного цитокина может вызвать кратковременное расширение подтипа Т-клеток, за которым последуют истощение и сокращение, и даже указала на конкретные сигнальные пути и предыдущие работы, соответствующие форме кривой. Исследователи отметили гипотезу, провели последующий анализ и позже подтвердили, что предложенный путь совпадал с дополнительными экспериментальными данными.
Этот рабочий процесс важнее одной отдельной победы. GPT-5 фактически перепрыгнул от "описания данных" к "механистической теории", шагу, который ученые-люди обычно рассматривают как основную творческую работу. OpenAI сообщает, что в рамках нескольких проектов в области биологии GPT-5 перешел от простого очищения наборов данных к предложению проверяемых механизмов, ранжированию поясняющих гипотез и предложению, какие эксперименты провести в первую очередь.
Математика предоставила еще более яркий пример. Два математика, работающие над многолетней задачей Эрдеша, столкнулись с упрямым узким местом в доказательстве комбинаторики. У них была стопка частичных аргументов и неудачных лемм, но не было четкого решения для одного ключевого шага.
GPT-5 обработал весь рабочий материал: доказательства LaTeX, безуспешные попытки и неформальные заметки. Вместо того чтобы силой решать алгебру, модель выявила скрытую симметрию в том, как определённая экстремальная конфигурация реагирует на преобразование, которое авторы считали несущественным. Это открытие, нарушающее привычные схемы, предложило другой параметр индукции и новый способ разделения изучаемых объектов, который математики затем формализовали в действительный шаг доказательства.
OpenAI представляет это не как "ИИ доказывает теоремы Эрдоша", а как GPT-5, действующий как третий соавтор, который никогда не устает перечитывать один и тот же 40-страничный черновик. Система предлагает неочевидные переработки, которые затем проверяют, исправляют или отбрасывают человеческие соавторы.
Универсальность проявляется не только на белых досках и в лабораториях. В области робототехники GPT-5 проанализировал алгоритмы планирования движений и управления, выявил крайние случаи, где гарантии безопасности молча потерпели неудачу, и предложил альтернативные формулировки, которые устранили эти пробелы — превратив текстовую модель в блуждающий детектор ошибок для физических систем.
Новый научный метод: человек + ИИ
Новые рабочие процессы начинают выглядеть не как отдельные гении, а как смешанные лаборатории человек-машина. Исследователи в экспериментах с GPT-5 не запрашивали у модели "ответ"; они рассматривали ее как поисковую систему для идей, запускают сотни кандидатских гипотез, доработок и крайних случаев, пока направляют общую повестку.
Люди по-прежнему задают рамки проблемного пространства. Они решают, какой биологический путь имеет значение, какая гипотеза в теории чисел стоит того, чтобы её исследовать, и какие экспериментальные параметры модель может затрагивать. Эта человеческая интуиция относительно того, что интересно, правдоподобно или этично приемлемо, не возникает из градиентного спуска.
Как только цель установлена, GPT‑5 становится катализатором. Он быстро расширяет область поиска: предлагает альтернативные механизмы для болезни, предлагает неординарные параметры для эксперимента или находит малозначимые статьи в области иммунологии, статистики и топологии, которые имеют скрытую структуру. Представьте себе его как неутомимого постдока, который никогда не перестает читать.
На основе медицинских и математических кейс-студий возникает определённая закономерность. Люди: - Определяют ограничения и критерии успеха - Отбирают данные, предварительные сведения и предположения о предметной области - Анализируют рассуждения модели строка за строкой - Принимают решения о том, какие результаты оправдывают эксперименты в реальном мире
GPT-5, в свою очередь, прекрасно справляется с задачами, когда: - Генерирует новые гипотезы в большом объеме - Соединяет удаленные под области через аналогии и общие формализации - Проверяет идеи с помощью контрпримеров и антагонистических сценариев - Автоматизирует утомительные символические или статистические проверки
Это разделение труда предполагает экспертный контроль, так как модель все еще может «галлюцинировать». GPT-5 может выдумывать цитаты, подстраиваться под особенности запроса или уверенно рекомендовать эксперимент, который нарушает скрытое ограничение в основной биологии или математике.
Чувствительность к формулировке запроса также становится методологическим риском. Небольшие изменения в том, как задан вопрос, могут привести модель от правильного вывода к тонкой, но фатальной алгебраической или концептуальной ошибке, особенно в многошаговых цепочках рассуждений. Исследователи в этих проектах использовали строгие шаблоны запросов, избыточные прогонки и перекрестные проверки с традиционными инструментами.
С оптимистичной точки зрения, это новый научный метод: люди предоставляют суждения и ценности, в то время как такие системы, как GPT-5, индустриализируют генерацию и фальсификацию идей. Для получения дополнительных примеров этой гибридной работы в лабораториях, ознакомьтесь с Последними новостями ИИ и наиболее важными прорывами в области ИИ: 2025.
Что означают эти прорывы для 2025 года
Внезапно прогресс искусственного интеллекта больше не движется по одной траектории. Непрерывные мыслительные машины, разреженное внимание Deepseek и наброски научного сопроводителя GPT‑5 указывают на три ортогональных направления изменений: новые архитектуры, напоминающие мозг, жесткие методы повышения эффективности для длинного контекста и модели, которые прекращают разговоры и начинают заниматься настоящей наукой.
CTM от Sakana AI, созданный при участии соавтора Ллиона Джонса, разрушает правило «один прямой проход — один ответ». Его нейроны хранят собственное состояние, синхронизируются как осцилляторы и итеративно проходят через внутренние такты, пока не возникает решение, что позволяет решать задачи лабиринта, выполнять алгоритмическую сортировку и создавать агентов с обучением с подкреплением, которые многократно обдумывают свои действия перед тем, как действовать.
Sparse Attention от Deepseek атакует другую узкую горлышко: стоимость. Стандартное внимание масштабируется квадратично с длиной последовательности; при 1 миллионе токенов это становится практически абсурдным как с точки зрения памяти, так и вычислительных операций FLOPs. Легкий индексатор Deepseek сокращает контент до топ-K релевантных токенов, заставляя окна в миллион токенов вести себя больше как операции с линейными затратами, а не как爆炸 вычислений.
Научная работа OpenAI по GPT‑5 меняет вопрос с «насколько велика ваша модель?» на «что она на самом деле может открыть?». В своих собственных бенчмарках GPT‑5 помогал генерировать гипотезы, разрабатывать эксперименты и отлаживать код для реальных задач в биологии, химии и математике, превращая большие языковые модели в соавторов, способных завершить полный цикл исследований, а не просто дополнять PDF-документы.
В совокупности эти шаги обозначают разрыв с культурой последних пяти лет, основанной на принципе "просто увеличьте масштаб". Архитектурные ставки, такие как CTM, меры по повышению эффективности, такие как DSA, и целевые внедрения, такие как GPT-5 для науки, сигнализируют о более плюралистической стратегии: специализированные системы, настроенные модули рассуждений и рабочие процессы, в которых люди и модели занимают четко определенные роли.
Ожидайте, что ближайшие 6–12 месяцев будут доминировать гибридные модели. Пограничные стеки от OpenAI, Google и других, вероятно, сохранят трансформеры для языка, но добавят: - рекуррентные модули в стиле CTM для долгосрочного.reasoning - слои разреженного внимания для контекста в несколько миллионов токенов - агентов по домену, специально настроенных для лабораторных исследований, работы с кодом или поиска теорем
Эти документы не выглядят как изолированные академические курьезы; они напоминают дорожные карты. CTM набрасывает посттрансформерную систему управления, Deepseek показывает, как расширять контекстные окна, не перегревая GPU, а научный агент GPT-5 описывает, как эти системы интегрируются в реальные лаборатории и исследовательские группы. Вместе они выглядят скорее как чертежи для следующего поколения ИИ-инфраструктуры, которое тихо станет основой самых значительных прорывов 2025 года.
Часто задаваемые вопросы
Что такое Непрерывные Машины Мысли (НММ)?
CTM — это новая архитектура ИИ, предложенная Sakana AI, которая выходит за рамки одноразовых трансформеров. Она использует нейроны с памятью и итерационное «время размышлений» для поэтапного решения задач, более точно имитируя человеческое мышление.
Как CTM отличается от ИИ, такого как ChatGPT?
В то время как модели, такие как ChatGPT, генерируют ответы за один проход для каждого токена, CTM внутренне уточняют свои мысли через несколько этапов перед тем, как дать ответ. Это позволяет им справляться с более сложными задачами многомерного логического вывода.
Уже ли GPT-5 используется для научных исследований?
Да, согласно документу OpenAI, предварительная версия GPT-5 используется в сотрудничестве с ведущими университетами для ускорения реальных исследований в области биологии, математики и информатики, выступая в качестве эксперта и партнера по исследованиям.
Что делает новый механизм внимания Deepseek таким эффективным?
Sparse Attention (DSA) от Deepseek использует 'молниеносный индексатор' для выявления и концентрации внимания только на самых релевантных частях длинного контекста. Это позволяет избежать огромных вычислительных затрат стандартного внимания, позволяя моделям гораздо эффективнее обрабатывать контексты на миллион токенов.