Тихой прорыв в области AGI?

Экс-глава AI в Google утверждает, что его стартап создал первую в мире модель с возможностями AGI. Вот почему мир ИИ игнорирует потенциально исторический прорыв.

Stork.AI
Hero image for: Тихой прорыв в области AGI?
💡

TL;DR / Key Takeaways

Экс-глава AI в Google утверждает, что его стартап создал первую в мире модель с возможностями AGI. Вот почему мир ИИ игнорирует потенциально исторический прорыв.

Заявление об ИИ, о котором никто не слышал

В прошлом месяце бывший исследователь Google тихо объявил о создании AGI, и, похоже, почти никто не обратил на это внимания. Джад Тарофи, генеральный директор и соучредитель Integral AI, утверждает, что его стартап, базирующийся в Токио, разработал первую в мире “модель, способную к AGI,” систему, которую он считает возможным масштабировать до полноценного искусственного общего интеллекта и, в конечном итоге, суперинтеллекта. Никаких эффектных презентаций, никаких живых демонстраций на крупных конференциях — лишь пресс-релиз, веб-страница и твит.

На X объявление Tarifi практически не вызвало реакции. Пост, объявляющий о "первой в мире модели, способной к AGI", набрал около 565 просмотров, 5 ретвитов и 6 лайков, когда AI YouTuber TheAIGRID записал разбор, что больше похоже на случайный журнал разработчиков, чем на значимую веху в области ИИ. В поле, где каждый незначительный апдейт GPT вызывает бурные реакции, такая тишина кажется почти сюрреалистичной.

Integral не предлагает примитивный чат-бот или еще одну усовершенствованную языковую модель. Тариф утверждает, что его система соответствует более строгому, трехчастному определению общего искусственного интеллекта (AGI): автономное освоение навыков без курационных наборов данных, безопасное и надежное владение навыками без катастрофических сбоев и энергоэффективность на уровне или лучше, чем у человека, обучающегося тому же навыку. Он позиционирует это как прямое опровержение сегодняшних грубых, жадных к данным больших языковых моделей.

Компания описывает свой подход как создание "универсальных симуляторов", которые строят иерархические мировые модели на основе мультимодального ввода: зрения, языка, аудио и физических датчиков. Эти симуляторы, как утверждается, сжимают опыт в слоистые абстракции, напоминающие человеческую неокортекс, а затем используют прогнозирование будущего для планирования действий. В одной из демонстраций воплощённый агент перемещается по 3D-дому, отвечает на вопросы, такие как "Оставил ли я ноутбук где-то в доме?" и делает выводы о мебели, стенах и предметах, которые он никогда не видел ранее.

Почему такое смелое заявление получило однозначную реакцию с минимальным интересом и почти без освещения в mainstream? Возможности делятся на две неудобные категории. Либо у Integral действительно есть архитектурный прорыв, но реализация была настолько неудачной, что мир ИИ просто отмахнулся от него, либо это заявление настолько громкое и слабо обоснованное, что исследователи решили, что оно даже не стоит опровержения.

Это расследование проследит за этой напряженностью: кто такой Jad Tarifi, что на самом деле создала Integral AI и почему предполагаемая система, способная к общему искусственному интеллекту, оказалась почти в полной тишине.

От ядра Google до тихой революции

Иллюстрация: от ядра Google до тихой революции
Иллюстрация: от ядра Google до тихой революции

Джад Тариф не выглядит как торговец хайпом. Он экс-исследователь Google с докторской степенью в области ИИ, резюме которого включает вероятностное моделирование и глубокое обучение, а также давнюю одержимость системами, вдохновленными человеческим неокортексом, а не масштабом по методу проб и ошибок. В Google он помогал возглавлять ранние усилия в области генеративного ИИ, работая над моделями, которые предшествовали текущей волне больших языковых моделей с миллиардом параметров.

Внутри исследовательского аппарата Google Тариди выступал за более структурированные и осведомленные системы, в то время как компания сосредоточилась на масштабируемых законах и огромных текстовых корпусах. Это напряжение помогает объяснить, почему он ушел из одной из самых мощных лабораторий ИИ в мире. В 2022 году он тихо основал Integral AI в Токио, делая ставку на то, что следующая фаза ИИ не будет заключаться в большем количестве токенов и графических процессоров, а в агентах, которые понимают и перемещаются в физическом мире.

Япония может показаться странным местом для создания компании в сфере прорывного ИИ, пока вы не вспомните, где находятся роботы. Тарифи говорит о "воплощённом AGI" как о жестком требовании, а не о фантасмагории научной фантастики: системах, которые обучаются так же, как животные и люди, с датчиками, телами и ограничениями. Глубокие традиции Японии в области промышленной робототехники, потребительских роботов и производства предоставляют ему доступ к аппаратным партнёрам и испытательным площадкам, о которых Кремниевая долина редко слышит.

На публике Тарифи стал резким критиком нынешней ортодоксии масштабирования ИИ. Он утверждает, что слепое добавление параметров и данных приводит к хрупким черным ящикам, которые запоминают эталоны, вместо того чтобы моделировать реальность. В интервью и длинных потоках в Twitter он предлагает другой рецепт: эффективность, явное моделирование мира и агентов, которые автономно приобретают навыки, а не пассивно воспроизводят данные для обучения.

Эта позиция ставит его в противоречие с основателями, такими как Сэм Альтман, Дарио Амодеи и Дэмиc Хассабис, которые по-прежнему рассматривают прогресс как функцию вычислительных мощностей и масштабирования. В отличие от многих громких пророков ИИ, Тарифи на самом деле создал крупные модели в одной из немногих компаний, которые могут себе это позволить, а затем ушел, чтобы pursued альтернативную парадигму. Поэтому, когда он утверждает, что его стартап заявляет о создании первой в мире системы с ИИ общего назначения, и никто об этом не говорит, это заявление исходит не от маргинала, а от человека, который помог создать мейнстрим.

Новая книга правил для общего интеллекта

Разговоры об ИИ обычно начинаются с ощущений и заканчиваются неопределёнными утверждениями. Integral AI пытается заменить это технической спецификацией. На странице запуска и в пресс-материалах токийский стартап определяет ИИ как систему, которая удовлетворяет трём жестким требованиям: автономное обучение навыкам, безопасное и надёжное овладение, а также энергоэффективность на уровне человека (или выше).

Это определение немедленно отводит в сторону сегодняшние крупные языковые модели. Системы в стиле GPT могут интерполировать внутри предобработанного текста из интернета, но они не ставят свои собственные цели, не собирают свои данные и не осваивают новые области с нуля. Утверждение Integral состоит в том, что если система не может выполнить все три задачи, это не просто "ещё не ИИ общего назначения" — она архитектурно направлена в неправильную сторону.

Критерий один, автономное обучение навыкам, нацелен на требующие больших объемов данных тренировочные конвейеры, которые доминируют в сегодняшнем ИИ. Integral утверждает, что система, способная на AGI, должна «независимо обучаться новым навыкам в новых областях, не полагаясь на заранее подготовленные наборы данных или вмешательство человека». Это означает отсутствие кураторских бенчмарков, отсутствие формирования наград в процессе обучения с подкреплением и отсутствие маркировки с участием человека для начала каждой новой задачи.

На практике это выглядит скорее как любопытный робот, чем интерфейс чата. Модель получает цель в новой среде, исследует, создает модель мира и со временем усовершенствует свое поведение. Если это подтвердится под пристальным вниманием, это будет прямым опровержением идеи о том, что масштабирование статических наборов данных и параметров достаточно для достижения общего интеллекта.

Критерий два, безопасное и надежное мастерство, противопоставляется философии «двигайся быстро и ломай вещи» в обучении с подкреплением. Integral настаивает, что система должна учиться «без побочных эффектов или катастрофических сбоев». Их собственный пример очень наглядный: кухонный робот, который поджигает дом во время обучения готовке, уже провалил тест на искусственный общий интеллект.

Это встроит безопасность в сам процесс обучения, а не просто как постфактумный фильтр. Квалификационная система нуждается в встроенных механизмах, способных предсказывать опасные состояния, количественно оценивать неопределенность и избегать рискованных путей исследования, при этом продолжая улучшаться. В области робототехники и воплощенного ИИ эта задача гораздо сложнее, чем добиться сходимости политики.

Критерий три, энергетическая эффективность, возможно, является самой тихой, но острой критикой нынешнего ИИ. Integral утверждает, что "общая стоимость обучения должна быть сопоставима с человеческой или ниже, чем у человека, осваивающего тот же навык." Обучение передовой модели языкового моделирования может потребовать мегаватт-часов; человек учится водить машину за несколько сотен часов практики и используя около 20 ватт сознательной энергии.

Привязывая ИИ общего назначения к энергетическим бюджетам, Integral утверждает, что простое масштабирование по определению не подходит. Любой путь к общему интеллекту, требующий дата-центров размером с малыми городами, не соответствует их критериям. Полный аргумент и демонстрационные среды «способные к ИИ» находятся на сайте компании: Integral AI – Официальный сайт.

Побег из тюрьмы «Двигателя прогнозов»

Современные большие языковые модели зависят от предсказания следующего токена. Питающие их триллионы слов делают их странными авто-дополняющими системами, но они по-прежнему функционируют как системы только с предсказанием: у них нет постоянной модели мира, явных концепций, четкого осознания причинности. Предложение Integral AI начинается с выхода из этой тюрьмы.

Вместо простого изучения статистических корреляций, Integral утверждает, что его модель строит явную, иерархическую модель мира. Вдохновленная многоуровневой структурой человеческого неокортекса, она сжимает сырьевые сенсорные потоки — зрение, язык, аудио, смоделированные данные сенсоров — в повторно используемые абстракции: объекты, отношения, динамика. Эти абстракции накладываются друг на друга, образуя башню от пикселей до физики и планов.

Integral описывает это как "универсальный симулятор", который развивается, рекурсивно структурируя опыт. На нижнем уровне модель обрабатывает мультимодальные входные данные из 2D и 3D окружающей среды. Более высокие уровни представляют собой комнаты, цели и стратегии, позволяя агенту отвечать на вопросы, такие как "Оставил ли я свой ноутбук где-то в доме?", основываясь на размышлениях о внутренней карте, а не запоминая сценарий.

Обучение также меняет привычный пассивный цикл обучения. Вместо того чтобы поглощать статические наборы данных, агент использует интерактивное обучение: он исследует, задает вопросы, устанавливает подзадачи и проводит внутренние эксперименты для уточнения своей модели. Integral показывает, как агент выбирает «возможные будущие», оценивая каждую воображаемую траекторию по тому, насколько хорошо она отвечает на запрос или выполняет задачу.

Этот контур больше похож на человека-ученого, чем на замороженный контрольный файл LLM. Система выдвигает гипотезы об окружающей среде, тестирует их в симуляции, обновляет свои абстракции, а затем повторяет процесс. Контроль осуществляется на основе ошибок предсказания и успеха задачи, а не на основе человеческих меток или курируемых эталонов.

Такая структура напрямую решает одну из самых больших проблем глубокого обучения: катастрофическое забывание. Традиционные сети перезаписывают старые знания при дообучении на новых задачах. Игорь утверждает, что иерархическая модель мира может локализовать обновления — корректируя лишь соответствующий уровень абстракции — так что обучение «где находится кружка» не стирает «как работают двери».

Поскольку агент может пересматривать и повторно сжимать свой опыт, Integral утверждает, что он поддерживает истинное обучение на протяжении всей жизни. Навыки накапливаются, а не заменяются через дообучение. Если архитектура масштабируется, вы не обучаете новую модель для каждой области; вы развиваете один мозг, который сохраняет своё прошлое, усваивая новое.

AGI в действии: Что на самом деле показывают демонстрации

Иллюстрация: ИИ в действии: что на самом деле демонстрируют показы
Иллюстрация: ИИ в действии: что на самом деле демонстрируют показы

AGI в стиле Integral начинает свое путешествие в пустом 3D-доме. Воплощенный агент появляется в незнакомой обстановке без карты, только с эгоцентричным RGB-входом и списком запросов на естественном языке: "Я оставил свою кружку в спальне?", "Какого цвета стена в гостиной?" Он исследует пространство, строит скрытую "ментальную карту" и использует прогнозирование будущего, чтобы выбрать, куда смотреть дальше, а затем отвечает на вопросы из памяти, а не сканируя сцену заново.

Под капотом Integral утверждает, что агент образует множество возможных будущих событий, оценивает их по вероятности решения текущего вопроса, а затем действует на основе наиболее ценной траектории. Это классическое обучение с подкреплением на основе модели, оформленное в метафоре неокортекса: планирование на основе изученной модели мира, а не просто реакция кадр за кадром. Впечатляющая инженерия, но аналогичные установки для исследования и ответов на вопросы существуют в DeepMind Lab от DeepMind и проекте Habitat от Meta на протяжении многих лет.

Второй демонстрационный показ сжимается до единственного изображения и быстро движущегося виртуального глаза. Вместо обработки каждого пикселя в полном разрешении система выполняет быстрые, порционные «саккады» по сцене, выбирая лишь несколько участков для классификации объекта. Integral представляет это как энергоэффективный аналог человеческого зрения, утверждая, что точное распознавание возможно на основе значительно меньшего объема данных.

Эта идея восходит к десяткам лет моделей «взгляда» и фовеального зрения, от рекуррентных сетей внимания на MNIST до собственных архитектур Google, таких как DRAW и RAM. Утверждение о новизне зависит от того, насколько тесно Integral связывает это с своей абстракционной машиной и насколько хорошо оно масштабируется за пределами игрушечных изображений. Без бенчмарков или прямых сравнений с обычными свёрточными нейронными сетями или Vision Transformers демонстрация саккады выглядит скорее как концептуальное доказательство, чем революция.

Третья витрина нацелена на планирование: Сокобан, головоломка о перемещении ящиков на складах, любимая когнитивными учеными и исследователями RL. Integral обучает агента, который изначально решает уровни с помощью медленного, явного поиска — то, что психологи называют Системой 2 — а затем постепенно сводит это к быстрым, "интуитивным" ходам Системы 1, которые решают новые головоломки всего за несколько шагов.

Опять же, концептуальный подход пересекается с уже существующими разработками: поиск в стиле AlphaZero, дистиллированный в политику сетей, и архитектуры "сначала думаем - затем действуем", такие как TreeQN и MuZero. Sokoban является законным испытательным полигоном для комбинаторной обобщаемости, но в этой области было много агентов, которые учились использовать повторяемые эвристики. Пока Integral не опубликует кривые обучения, статистику эффективности образцов и обобщение на более сложные варианты, эти демонстрации выглядят многообещающе, но пока не уникально.

Красные флажки: Где доказательства?

Красные флаги начинаются с отсутствия, и у Integral AI есть огромный: ни одной рецензируемой статьи, ни открытого кода, ни публичного API, даже нет технического отчета с достаточными деталями для воспроизведения результатов. Для утверждения столь сильного, как «первый в мире модель с возможностью AGI», этот вакуум важнее любой эффектной демонстрации. На данный момент единственными доказательствами являются страница с маркетинговой информацией, пресс-релиз и тщательно смонтированное видео.

Самоопределенные условия победы делают ситуацию более запутанной. Интегральный ИИ не демонстрирует результаты по стандартным бенчмаркам, таким как Atari, Procgen или MineRL, и не сравнивается с базовыми моделями, такими как DreamerV3 или Gato. Вместо этого он вводит индивидуальное трехчастное определение AGI, а затем заявляет о своем успехе по собственным критериям, не опираясь на внешние индикаторы.

Этот шаг отзывается знакомой схемой в хайпе вокруг ИИ: придумайте новую метрику, преуспейте в ней и минуйте трудные сравнения. Без прямых числовых данных по устоявшимся задачам никто не может сказать, действительно ли "универсальный симулятор" Integral превосходит хорошо настроенный агент PPO и крупную языковую модель или просто соответствует тому, что уже делают готовые системы. Утверждения об энергоэффективности и безопасности также остаются чисто качественными, без цифр в кВтч, времени тренировки в реальном времени или кривых эффективности выборки.

В отличие от этого, работа DeepMind 2017 года по агентам, дополненным воображением представила полный отчет, выпустила архитектуры и детали обучения, а также провела оценку в стандартных средах обучения с подкреплением, таких как Сокобан и навигация по лабиринту. Исследователи могли изучать абляционные исследования, воспроизводить кривые обучения и дискутировать о том, действительно ли «модуль воображения» улучшает планирование в условиях неопределенности.

Демонстрация 3D-тура по дому от Integral AI концептуально близка к агентам, усиленным воображением: агент исследует, создает скрытую карту и отвечает на вопросы, такие как "Оставил ли я свой ноутбук где-то в доме?". Версия DeepMind прошла рецензирование на ICML; версия Integral находится за закрытой дверью, без спецификаций среды, без функций вознаграждения и без сравнения с альтернативными планировщиками.

Эта непрозрачность — причина, по которой более широкое сообщество ИИ в основном не придаёт этому значения. Без кода, логов или хотя бы редактированной технической препринты исследователи не могут исследовать режимы отказа, проверять переобучение на одном симуляторе или видеть, как система масштабируется за пределы игрушечных квартир. Пока Integral AI не предложит что-то столь же конкретное, как это сделал DeepMind в 2017 году, серьезные лаборатории и рецензенты будут воспринимать ярлык «способный на AGI» как маркетинг, а не как веху, независимо от резюме Жада Тарифі или его профиля на LinkedIn.

"Искусственный интеллект на основе свободы": Поворотный момент в согласовании?

Свобода находится в центре предложения о выравнивании от Джада Тарифи. Это не контент-фильтры в стиле "не говорите грубых слов", и не жестко запрограммированный список правил в духе Азимова, а система, которая рассматривает человеческую агентивность как величину, которую необходимо максимизировать. В его интерпретации выровненное ИИ не просто избегает вреда; оно активно расширяет то, что люди могут знать, выбирать и делать.

Вместо хрупкого набора средств безопасности, Integral AI стремится к одной четкой цели: максимизировать человеческую и коллективную агентность. Тариф говорит о «свободной AI» как о задаче оптимизации, где вознаграждение выше, когда больше людей имеют более значимые варианты. Это смещает вопрос с «разрешено ли это?» на «увеличивает ли это действие долгосрочную человеческую свободу?»

Конкретно, ИИ бы симулировал возможные будущие сценарии и оценивал бы их по тому, как они изменяют наше пространство действий. План, который центрирует власть, устанавливает контроль или делает людей более зависимыми от одного участника, был бы наказан. План, который диверсифицирует знания, улучшает координацию и снижает зависимость, был бы вознаграждён.

Это требует модели свободы, которая богаче простых демагогий о свободе слова. Версия Тарфи отслеживает три оси агентности: - Знать: доступ к точным моделям мира и себя - Выбирать: реальные альтернативы, а не фальшивые или принудительные опции - Действовать: инструменты, ресурсы и права для реализации принятых решений

Вокруг этого он называет “Экономикой согласования.” Вместо того чтобы ценность была связана с вовлеченностью или кликами по рекламе, ценность будет индикатором измеримых увеличений человеческой свободы. В принципе, продукты, политики и способы работы ИИ будут оцениваться исходя из их воздействия на свободу выбора, превращая согласование из философской дискуссии в экономический сигнал.

Скептики будут спрашивать, как вы количественно оцениваете свободу, кто определяет исходный уровень и как предотвратить обман. Ответа Тарфи на данный момент заключается в том, что любое масштабируемое решение для выравнивания должно напрямую решать эти вопросы и внедрять их в функцию потерь.

«Суперсеть»: Интернет мыслящих машин

Иллюстрация: 'Супернет': Интернет мыслящих машин
Иллюстрация: 'Супернет': Интернет мыслящих машин

Integral AI не просто хочет более умный чат-бот. Она хочет «Суперсеть»: планетарную сеть воплощённых агентов ИИ, напрямую подключённых к заводам, лабораториям, складам и электросетям, все разделяющие одну развивающуюся модель мира.

В презентации Integral каждый агент запускает свою универсальную симуляторную архитектуру локально, подключенную к камерам, датчикам силы, роботам и ПЛК. Эти агенты не просто предсказывают текст; они управляют конвейерными лентами, настраивают химические реакции и перерабатывают производственные линии, постоянно обмениваясь абстракциями и навыками по сети.

Supernet выглядит меньше как сегодняшние API-вызовы к OpenAI и больше как распределенная система управления реальностью. Где GPT-4o или Gemini находятся за полем ввода, Integral представляет собой флоты роботов и встроенных контроллеров, которые могут:

  • 1Автономно осваивать новые задачи в физическом пространстве
  • 2Координируйте действия с другими агентами через общие абстракции.
  • 3Выполняйте сложные планы от начала до конца без человеческого контроля микроменеджмента.

Это fundamentally отличает его от AI с текстовым приоритетом. OpenAI, Google и Anthropic в основном представляют модели в качестве сервисов, которые отвечают на вопросы, пишут код или суммируют документы. Видение Integral основано на действиях в первую очередь: язык становится лишь одним из интерфейсов к субстрату, который напрямую перемещает товары, инструменты, а в конечном итоге и целые цепочки поставок.

Если Supernet работает так, как заявлено, экономическое влияние выходит далеко за пределы колл-центров и копирайтинга. Представьте себе менеджера по операции, который вводит: «Построить новый завод по производству батарей во Вьетнаме с объемом 10 ГВтч/год к 2029 году», и сеть разбивает это на исследования площадки, симуляции, закупки, проектирование линии и графики строительства, а затем управляет роботами и подрядчиками, которые это реализуют.

Такая система сокращает разрыв между человеческим намерением и физическим действием. Логистические сети могут самостоятельно перенастраиваться в ответ на изменения в спросе, лаборатории по открытию лекарств могут функционировать круглосуточно с роботизированными химиками, а малые компании могут командовать производственными мощностями, сопоставимыми с современными мегакорпорациями, просто задавая высокоуровневые цели.

Социальные последствия будут столь же явными. Суперсеть, которая надежно отвергает согласованные цели, может значительно увеличить продуктивность и декарбонизацию; та, которая неправильно интерпретируется или захватывается, может неправильно распределять ресурсы, нарушать инфраструктуру или использовать промышленный потенциал на машинной скорости. "Воплощённый суперintelligence" от Integral — это не просто очередной уровень модели, а предложение подключить ИИ к глобальной нервной системе.

Звук тишины: Почему такая сдержанная реакция?

Тишина вокруг анонса Integral AI начинается с выбора времени и усталости. ПослеYears of AGI тизеров от лабораторий и основателей, мир ИИ выработал толстые каллюси к утверждениям о «первом в мире». Твит с 565 просмотрами, пятью репостами и шестью лайками от бывшего основателя Google едва ли заметен на фоне ежедневных запусков моделей и заголовков о том, что «GPT-5 будет AGI».

Усталость от хайпа пересекается с форматом. Главное раскрытие Integral сосредоточено на 3D-агенте, который тихо исследует синтетические комнаты, а не на вирусном чат-боте, с которым может взаимодействовать любой. Отсутствие чат-бота, публичного API и места в рейтинге бенчмарков означает отсутствие очевидного мема, скриншотов и готового к TikTok момента, чтобы вывести утверждение в мейнстрим.

Иерархия сигналов в ИИ также работает против них. Стартапы, которые меняют рынок, обычно приходят с: - Привлекательной научной статьей на конференции или предвариатным вариантом на arXiv - Серьезным инвестиционным предложением от венчурного капитала - Результатом, возглавляющим списки лучших показателей

Integral пока не предлагает ничего из этого, только пресс-релиз и качественно подготовленный демонстрационный ролик. Без статьи на NeurIPS или раунда в 100 миллионов долларов, утверждение лишено институциональных сигналов, которые журналисты, инвесторы и исследователи используют в качестве фильтров.

Архитектура добавляет еще один уровень трения. Тарифи не настраивает трансформеры; он предлагает абстрактно‑предсказательные "универсальные симуляторы", вдохновленные неокортексом. Для исследователей, погруженных в слои внимания и законы масштабирования, оценка закрытого, не трансформерного стека без открытого кода или математики требует больших усилий и имеет неопределенные выгоды.

Рискованный расчет для экспертов и консервативные тенденции в прессе здесь. Поддержка системы, обладающей "возможностями ИИ общего назначения", без независимой проверки несет репутационные риски и почти не имеет преимуществ. Аналитики, желающие углубиться в вопрос, вместо этого указывают на более медленные и скептические разборы, такие как MIT Technology Review – Действительно ли система Integral AI может быть ИИ общего назначения?, в то время как более широкая экосистема в основном пожимает плечами и пролистывает мимо.

История или Бурное Волнение? Окончательный Анализ

История может запомнить Integral AI как тихое начало чего-то грандиозного или как еще один уверенный обход в цикле хайпа вокруг ИИ. На бумаге дело компании выглядит необычайно солидно: основатель, Jad Tarifi, который возглавлял ранние разработки генеративного ИИ в Google, имеет степень PhD в области ИИ и потратил годы, размышляя о системах, вдохновленных неокортексом. Он не случайный блогер с презентацией; он тот, кого крупные лаборатории нанимают для создания следующего поколения моделей.

Критика Интеграла современных систем также актуальна. Текущие большие языковые модели остаются только предсказательными двигателями: они сопоставляют входные данные с выходами, запоминают эталоны и потребляют удивительные объемы энергии, не формируя явных моделей мира. Предложение Интеграла — иерархические симуляторы «абстракции и предсказания», которые автономно учат навыкам, остаются в безопасности во время обучения и соответствуют энергетической эффективности на уровне человека — напрямую нацелено на три основные претензии к современному ИИ.

Затем приходит реальность: почти нет проверяемых доказательств. Нет рецензируемых статей на arXiv. Нет открытого исходного кода. Нет API или хотя бы закрытого предварительного просмотра исследований для сторонних лабораторий. Флагманская 3D демонстрация выглядит скорее как скромный исследовательский прототип, чем как проблеск воплощённой суперинтеллектуальности, а компания не предоставляет количественных стандартов по сравнению с задачами навигации, планирования или эффективности выборки.

Связь не помогла. Стартап заявляет о создании первой в мире системы, способной к общему искусственному интеллекту, но никто об этом не говорит, поскольку анонс состоял из пресс-релиза BusinessWire, невыразительного твита и эффектного, но скромного веб-сайта. Никакого технического отчета, никаких абляционных исследований, никакого сравнения с моделями, такими как GPT-4, Claude или современными моделями-агентами.

На данный момент видение Integral AI кажется революционным, но само утверждение остается неоправданным. Бремя доказательства полностью лежит на Тарифе и его команде, и в области ИИ архитектурные диаграммы и философские дискуссии не считаются доказательством.

Если вам важно, является ли это историей или хайпом, обратите внимание на три вещи: подробную техническую статью с экспериментальными результатами, независимые трети́е стороны, которые воспроизводят их утверждения, и значительный раунд финансирования или партнерство с лабораторией. Пока хотя бы одно из этих условий не выполнено, Integral AI либо тихо строит будущее — либо тихо записывает себя в сноску.

Часто задаваемые вопросы

Что такое Интегральный ИИ?

Integral AI — стартап, основанный в Токио бывшим исследователем ИИ Google Джадом Тарифом. Они утверждают, что разработали первую в мире модель с возможностями общего искусственного интеллекта (AGI), ориентированную на воплощённый интеллект и робототехнику.

Что отличает заявление Integral AI о создании ИИ общего назначения?

Они определяют ИИ общего назначения по трем строгим критериям: автономное освоение навыков без использования данных человека, безопасное овладение без катастрофических сбоев и энергоэффективность, сопоставимая с человеческой. Это более высокая планка, чем у большинства определений.

Почему эксперты в области ИИ скептически относятся к этому утверждению?

Основной скептицизм вызван отсутствием проверяемых доказательств. Integral AI не опубликовала техническую документацию, не открыла свой код и не представила свою модель для независимой оценки третьими сторонами.

Что такое воплощённый суперинтеллект?

Это концепция общего искусственного интеллекта (AGI), который не просто обрабатывает текст или изображения, но может воспринимать и действовать в физическом мире с помощью робототехники. Долгосрочная цель компании Integral AI — это глобальная сеть таких агентов, которую они называют «Суперсеть».

Frequently Asked Questions

Красные флажки: Где доказательства?
Красные флаги начинаются с отсутствия, и у Integral AI есть огромный: ни одной рецензируемой статьи, ни открытого кода, ни публичного API, даже нет технического отчета с достаточными деталями для воспроизведения результатов. Для утверждения столь сильного, как «первый в мире модель с возможностью AGI», этот вакуум важнее любой эффектной демонстрации. На данный момент единственными доказательствами являются страница с маркетинговой информацией, пресс-релиз и тщательно смонтированное видео.
"Искусственный интеллект на основе свободы": Поворотный момент в согласовании?
Свобода находится в центре предложения о выравнивании от Джада Тарифи. Это не контент-фильтры в стиле "не говорите грубых слов", и не жестко запрограммированный список правил в духе Азимова, а система, которая рассматривает человеческую агентивность как величину, которую необходимо максимизировать. В его интерпретации выровненное ИИ не просто избегает вреда; оно активно расширяет то, что люди могут знать, выбирать и делать.
Звук тишины: Почему такая сдержанная реакция?
Тишина вокруг анонса Integral AI начинается с выбора времени и усталости. ПослеYears of AGI тизеров от лабораторий и основателей, мир ИИ выработал толстые каллюси к утверждениям о «первом в мире». Твит с 565 просмотрами, пятью репостами и шестью лайками от бывшего основателя Google едва ли заметен на фоне ежедневных запусков моделей и заголовков о том, что «GPT-5 будет AGI».
Что такое Интегральный ИИ?
Integral AI — стартап, основанный в Токио бывшим исследователем ИИ Google Джадом Тарифом. Они утверждают, что разработали первую в мире модель с возможностями общего искусственного интеллекта , ориентированную на воплощённый интеллект и робототехнику.
Что отличает заявление Integral AI о создании ИИ общего назначения?
Они определяют ИИ общего назначения по трем строгим критериям: автономное освоение навыков без использования данных человека, безопасное овладение без катастрофических сбоев и энергоэффективность, сопоставимая с человеческой. Это более высокая планка, чем у большинства определений.
Почему эксперты в области ИИ скептически относятся к этому утверждению?
Основной скептицизм вызван отсутствием проверяемых доказательств. Integral AI не опубликовала техническую документацию, не открыла свой код и не представила свою модель для независимой оценки третьими сторонами.
Что такое воплощённый суперинтеллект?
Это концепция общего искусственного интеллекта , который не просто обрабатывает текст или изображения, но может воспринимать и действовать в физическом мире с помощью робототехники. Долгосрочная цель компании Integral AI — это глобальная сеть таких агентов, которую они называют «Суперсеть».
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts