TL;DR / Key Takeaways
Точка перелома автоматизации настала.
Автоматизация вдруг выглядит совершенно иначе, чем в мире, который породил такие инструменты, как n8n и Make.com. Джек Робертс, управляющий бизнесом по автоматизации на базе ИИ с семизначным доходом, задает неудобный вопрос вслух: если крупные языковые модели теперь могут «автоматизировать с помощью слов», не находятся ли традиционные платформы для автоматизации рабочих процессов в обратном отсчете к невостребованности?
Модели, такие как Gemini 3.0 и Claude, тихо преодолели порог возможностей. Они больше не просто дополняют код; они проектируют целые системы, соединяют API и обрабатывают крайние случаи на основе естественно-языкового брифа, часто за час вместо многодневных спринтов, к которым привыкли разработчики.
Собственный пример Робертса наглядный. Он попросил ИИ создать скребок для новостной рассылки The Rundown AI, который в настоящее время является одной из крупнейших рассылок об ИИ по количеству подписчиков, и в итоге получил полную систему, которая: - Переходит к каждой статье - Извлекает полное содержание - Хранит и отображает все в пользовательском интерфейсе
Он настаивает, что никогда не использовал традиционную платформу для кодирования для этой сборки. Никакого ручного соединения узлов в n8n, никаких поисков нужного вебхука, никакой борьбы с постраничной навигацией. Он просто провел разговор с моделью, которая выступала в роли исполнителя на уровне кода — разрабатывая логику и затем выполняя работу.
Это резко контрастирует со старым ритмом автоматизации рабочего процесса. Ранее вы загружали n8n или Make.com, брали кофе и проводили часы, перетаскивая узлы, тестируя триггеры, отлаживая OAuth и постепенно соединяя интеграции. Эти инструменты выступали в роли интеграторов, соединяя Gmail с Google Sheets и Supabase, шаг за шагом, тщательно настраивая каждую часть.
Теперь возникает другой подход. Вы описываете результат — «соберите этот информационный бюллетень, проиндексируйте каждую статью, позвольте мне позже фильтровать по теме» — и модель генерирует бэкэнд, схему базы данных и даже базовый интерфейс, часто всего за одну беседу.
Робертс рассказывает историю, которая идеально иллюстрирует этот сдвиг. В своем предыдущем стартапе он попросил своего технического директора создать панель администрирования и получил ответ с временными затратами в "несколько месяцев". Вчера он опубликовал на YouTube видео-инструкцию, показывающую полную панель администрирования, созданную с помощью современного ИИ за рекордные менее чем за час. Эта разница во времени и сложности является точкой перелома в автоматизации.
Познакомьтесь с 'Исполнителями' и 'Интеграторами'
У строителей ИИ теперь есть два разных типа инструментов на рабочем столе: интеграторы и исполнители. Они звучат похоже, но работают на очень разных уровнях стека, и это различие объясняет, почему n8n не тихо движется к забвению.
Интеграторы, такие как n8n и Make, специализируются на одной задаче: соединении различных систем. Они организуют работу API, вебхуков, SaaS-приложений и баз данных, перемещая JSON из Gmail в Supabase и Slack по надежным расписаниям с повторными попытками, ведением журнала и обработкой ограничения скорости.
Исполнители, такие как Claude и Gemini, работают ближе к базовому уровню, оперируя на уровне кода и логики. Они могут прочитать параграф инструкций, спланировать многоэтапный рабочий процесс, написать связующий код и исправить его, когда что-то перестает работать, всё это через разговорный интерфейс.
Думайте о интеграторах как о водопроводе и электрической проводке в доме. Они направляют данные, обеспечивают структуру и поддерживают своевременное течение, но не принимают решения о том, что строить или как должны работать несущие стены.
Исполнители ведут себя скорее как архитекторы и инженеры-строители. Они интерпретируют требования («собрать информацию из топовых AI-рассылок, сохранить статьи, выделить идеи для LinkedIn»), разрабатывают систему, генерируют код и вносят изменения в проект, когда вы меняете свое мнение.
Используя эти инструменты вместе, они создают новую, более мощную парадигму, а не просто цикличную замену. Исполнитель может разработать парсер, сгенерировать API и определить модели данных, в то время как интегратор подключает этот API к:
- 1Сбор email и тегирование
- 2База данных Supabase или Postgres
- 3Еженедельный дайджест через Gmail или SendGrid
Исполнители превосходят в однократной креативности и сложном мышлении, но им все же не хватает проверенной временем надежности зрелого уровня автоматизации рабочих процессов. Интеграторы работают круглосуточно, обрабатывают тысячи запусков в день и предоставляют неразработчикам визуальную, подлежащую аудиту карту того, что происходит и когда.
Будущие решения не будут выбирать сторону. Они позволят Claude или Gemini разрабатывать и строить систему, а затем развёртывать скучные, повторяющиеся, высокообъёмные задачи в n8n или Make, где система тихо поддерживает функционирование.
Уровень 1: Развертывание предустановленных ИИ-агентов
Уровень 1 начинается с платформ, таких как Lindy AI, которые обещают «сотрудников с искусственным интеллектом без кода», которых вы внедряете вместо того, чтобы проектировать. Вместо того чтобы рисовать блок-схемы или настраивать вебхуки, вы просматриваете каталог готовых агентов, которые уже понимают специфические бизнес-задачи.
Библиотека Линди выглядит как магазин приложений SaaS. Вы получаете агенты для планирования электронной почты, сортировки входящих сообщений, сбора контактов, обогащения CRM и последующих действий по поддержке клиентов, все преднастроенные с инструментами, такими как Gmail, Google Календарь, формы и внутренние утилиты.
Пользовательский опыт больше похож на установку расширения для Chrome, чем на автоматизацию рабочего процесса. Вы выбираете шаблон — скажем, «Планировщик встреч», видите связанные приложения, нажимаете "Добавить" и авторизуете свой Gmail и Календарь на нескольких экранах OAuth.
Оттуда вы обычно настраиваете несколько полей: предпочтительная длительность встречи, доступные временные окна, стандартная ссылка Calendly или Meet, возможно, резервное правило для VIP. Платформа затем генерирует уникальный адрес электронной почты или правило маршрутизации, которое превращает «CC этот адрес» в «AI помощник берет на себя управление».
Джек Робертс демонстрирует именно это: он добавляет в копию письма к Линди расписание сообщение о вымышленном слиянии McMillan, а агент продолжает беседу, предлагает слоты и напрямую записывает встречу в Google Календарь. Никаких графиков узлов, никаких API-документов, никакой ручной обработки ошибок.
Это первый настоящий шаг к отказу от ручных рабочих процессов в таких инструментах, как Make или n8n - Автоматизация Рабочих Процессов. Вы используете системы, основанные на мнении ИИ, которые уже объединяют подсказки, инструменты и логику, вместо того чтобы соединять их самостоятельно.
Думайте о уровне 1 как о SaaS-агентах: вы жертвуете гибкостью ради скорости. Вы принимаете настройки поставщика по умолчанию, получаете развертывание за считанные минуты и лишь позже решаете, нужно ли вам более глубокое управление от полноценных интеграторов или индивидуальных исполнителей.
Уровень 2: Когда ваш инструмент для работы обретает интеллект
Уровень 1 предоставляет вам готовых AI-агентов. Уровень 2 начинается, когда ваш существующий инструмент автоматизации рабочих процессов тихо развивается в кору. Новая кнопка Создать с помощью AI в n8n — это именно тот момент: ваш интегратор перестает быть простым маршрутизатором и начинает действовать как младший архитектор, который может набросать первый эскиз вашей системы.
Нажмите "Создать с помощью ИИ", и вам не нужно перетаскивать узлы. Вы описываете, что хотите, на естественном языке: "Собирайте r/Entrepreneur каждое утро, подводите итоги 20 лучших постов с помощью ИИ, выбирайте 5 лучших для моего новостного бюллетеня, а затем отправляйте их на мой Gmail в виде форматированного дайджеста." n8n передает этот запрос языковой модели, а затем создает вокруг него целый рабочий процесс.
Под капотом n8n автоматически выбирает узлы, подключает учетные данные и предлагает разумные настройки по умолчанию. Например, для Reddit это может означать: - Добавление узла HTTP Request, который обращается к JSON-каналу Reddit - Перенаправление результатов в узел OpenAI или Claude для суммирования - Фильтрацию по баллам или вовлеченности - Отправку финальных 5 в Gmail, Slack или журнал Google Sheets
Вы переходите от пустого холста к рабочему черновику за секунды, а не за 30–60 минут ручного поиска узлов. Для независимых разработчиков и агентств такая скорость имеет огромное значение: десятки «достаточно хороших» рабочих процессов в неделю вместо пары, тщательно сделанных вручную.
Создание с помощью ИИ отлично подходит для 80% автоматизаций, которые следуют линейному или слегка разветвлённому паттерну. Всё, что-то вроде «наблюдать за папкой, классифицировать файлы с помощью ИИ, переименовать, а затем загрузить в S3» или «мониторить форму, оценивать потенциальных клиентов, а затем направлять горячие к продажи» попадает прямо в его идеальную область. Вы всё равно настраиваете детали, но скелет приходит заранее собранным.
Проникайте в по-настоящему сложную многоуровневую логику, и трещины начинают проявляться. Комплексная обработка ошибок, согласование лимитов частоты между 5-10 API или условные ветвления, зависящие от исторического состояния, часто сбивают с толку генератор. Вы начинаете получать рабочие процессы, которые почти функционируют, но затем рушатся под воздействием крайних случаев.
Это точка передачи к Уровню 3, где вы перестаете заставлять n8n догадываться и начинаете использовать исполнители — Claude, Gemini или настоящий редактор кода — для разработки пользовательской логики, написания вспомогательных сервисов и рассматриваете n8n как уровень оркестрации, а не как мозг.
Уровень 3: Создание систем с помощью беседы
Разговор становится новым IDE на уровне 3. Вместо того чтобы открывать холст для автоматизации рабочих процессов или редактор кода, вы открываете Claude или Gemini и описываете, что хотите: «Создайте систему, которая собирает информацию из рассылки The Rundown AI, хранит каждую статью и предлагает идеи для контента на LinkedIn». Модель не просто отвечает фрагментом; она предлагает архитектуру.
Вы получаете структурированный план: извлечение данных из источника, парсинг HTML, нормализация контента, хранение в Supabase, создание минимального пользовательского интерфейса. Отсюда исполнитель пишет скрипт для парсинга на Node или Python, разрабатывает SQL для таблиц и создает каркас фронтенда на React или Next.js. Вы говорите на естественном языке, пока ИИ занимается деталями реализации.
Это работает, потому что современные исполнители объединяют три достижения: контекстные окна на 200K+ токенов, агентовые SDK и долговременное рассуждение. Модель, такая как Claude 4.5 Sonnet, может удерживать целый репозиторий, спецификацию продукта и пример данных в одном разговоре, поэтому она рассуждает о всей системе, а не об отдельных файлов. Этот контекст позволяет ей рефакторить, добавлять функции и исправлять ошибки, не теряя суть.
Агентные инструменты превращают чат в программируемую управляющую петлю. Anthropic, Google и другие компании предлагают SDK, которые позволяют моделям: - Вызывать инструменты и API - Выполнять команды оболочки и тесты - Читать и записывать файлы на протяжении нескольких шагов
Ваш "чат" становится наставником, который управляет автономным исполнителем, редактирующим код, выполняющим его, проверяющим ошибки и пытающимся снова.
Долгосрочное мышление поддерживает систему в нужном русле на протяжении часов, а не по отдельным запросам. Джек Робертс рассказывает о переходе от «месяцев» разработки административной панели к менее чем одному часу, благодаря тому, что модель может удерживать бизнес-логику, требования к пользовательскому интерфейсу и модель данных в памяти во время итераций. Вам не нужно следить за каждой строкой; вы корректируете направление.
Ключевым моментом является то, что это не однократная выгрузка кода. Вы запускаете то, что сгенерировала модель, сталкиваетесь с ошибкой, вставляете трассировку стека и говорите: «Исправьте это, не нарушая пагинацию или схему Supabase». ИИ обновляет только необходимые файлы и объясняет, почему.
Затем вы продвигаете это дальше: «Добавьте роли пользователей, ограничение по ставкам и кнопку экспорта в CSV». Исполнитель внедряет эти изменения через бэкенд, базу данных и пользовательский интерфейс, в то время как вы остаетесь в режиме ревью. Разговор становится основным интерфейсом для проектирования, отладки и эволюции целых систем.
Анатомия приложения-скрейпера, созданного ИИ
Скрипт "AI Rundown" Джэка Робертса — это самый чистый моментальный снимок того, как будет выглядеть ориентированная на исполнение сборка в 2025 году. Он утверждает, что создал его «вчера», общаясь с Claude или Gemini, а не перетаскивая узлы в n8n или Make и не пиша код в традиционном редакторе кода.
Шаг первый: архитектура. Модель предлагает трехчастную систему: Apify для сбора данных с сайта AI Rundown, Supabase в качестве размещенной базы данных Postgres с API-слоем и простой веб-интерфейс для чтения и обновления статей. Вместо того чтобы вам гуглить «лучший стек для сбора данных», модель выбирает настройки по умолчанию, обосновывает их и набрасывает схему потока данных между сервисами.
Этап планирования может оказаться удивительно детализированным. Вы можете попросить модель определить такие сущности, как «рассылка», «выпуск» и «статья», решить, как часто будут обновления, и наметить, как обрабатывать пагинацию и лимиты по количеству запросов в Apify. В старых рабочих процессах вы бы потратили половину дня просто на чтение документации API для Apify и Supabase; здесь модель подытоживает и применяет их.
Шаг второй: генерация кода. Исполнитель пишет скрипт Apify на JavaScript или Python, включая логику для перехода по ссылкам статей, удаления шаблонного текста и нормализации заголовков, временных меток и авторов. Затем он генерирует SQL для нормализованной схемы Supabase с таблицами для новостных рассылок, номеров и статей, а также индексами для быстрого запроса.
На фронтенде модель генерирует HTML, CSS и часто небольшое приложение на React или чистом JS, которое позволяет вам нажимать «Обновить рассылки», видеть индикатор прогресса и просматривать сохраненные статьи. Вы можете запросить изменения — новые фильтры, теги или тёмную тему — и модель исправляет существующий код, а не начинает с нуля.
Шаг третий: оркестрация развертывания. ИИ пишет команды оболочки для создания проекта Supabase, настройки переменных окружения и развертывания скриптера на Apify или безсерверной платформе. Он может написать основной CI-пайплайн и предложить варианты хостинга, такие как Vercel или Netlify, а также сгенерировать `Dockerfile` при необходимости.
Во многих настройках вы вставляете эти команды в терминал; в более продвинутых средах, таких как Google AI Studio или агентные оболочки, модель может выполнять их напрямую. В любом случае, вы переходите от идеи к рабочей системе менее чем за час, а не за 4–8 часов, которые человек мог бы потратить на соединение всего.
Что исчезает, так это рутинная работа: анализ документов, отладка аутентификации, связывание REST-вызовов и ручное отображение JSON в таблицы. Что остается, так это мыслительный процесс продукта — решение о том, что собирать, как это структурировать и что вы хотите, чтобы система делала с данными после их появления.
Почему n8n только что стал более мощным, а не устарел?
N8n не только выжила в эпоху Клода и Гемини; она тихо перешла на новый уровень. Когда большие модели могут писать и хостить собственные сервисы по запросу, инструмент, который надежно отслеживает события, распространяет их и устанавливает ограничения, становится еще более важным, а не менее.
Представьте себе современный стек поддержки. Клод выступает в роли исполнителя, разворачивая небольшой микросервис анализа настроений: HTTP-эндпойнт, который принимает исходный текст заявки, запускает точно настроенный классификатор и возвращает JSON-ответ с настроением, оценками уверенности и рекомендованными действиями за менее чем 300 мс.
Теперь вставьте это в n8n. Вы подключаете узел триггера Zendesk, который срабатывает каждый раз, когда поступает новый запрос на поддержку, нормализуете полезную нагрузку и передаете текст сообщения на конечную точку исполнителя через узел HTTP-запроса. N8n сохраняет результат, обогащает его метаданными билета и ветвляет логику на основе пороговых значений уверенности.
Оттуда интегратор берет на себя роль связующего звена. N8n может: - Размещать высокоуральные негативные тикеты в специализированном канале Slack с упоминанием @on‑call - Автоматически тегировать или эскалировать тикеты в Zendesk в зависимости от настроения и темы - Записывать каждое решение в Supabase для еженедельного контроля качества и анализа изменений модели
Этот комбинированный подход — микросервис на базе LLM плюс событийно-ориентированная автоматизация рабочих процессов — стал новой нормой. Claude или Gemini обрабатывают индивидуальную логику и обеспечивают непрерывное улучшение, в то время как n8n гарантирует, что данные поступают в нужное место каждый раз, через сотни API SaaS.
Исполнители не заменяют интеграторы; они умножают их поверхность. Каждый раз, когда Клод генерирует новый микросервис (суммирование, маршрутизация, проверки цен, обнаружение аномалий), n8n получает еще один строительный блок, который он может вызывать, отслеживать и связывать вместе, не прибегая к традиционному редактору кода.
В 2024 году и в дальнейшем n8n и Make перестают быть местом, где вы мучительно повторно реализуете логику узел за узлом. Они становятся шиной событий, движком политик и уровнем наблюдения для растущего парка компонентов ИИ. По мере того как исполнители становятся более способными, ценность надежного, независимого от вендоров слоя интеграции и оркестрации только возрастает.
Клод против Джемини: выбор вашего соразработчика
Выбор между Claude и Gemini больше связан не с приверженностью бренду, а с тем, каким образом соразработчиком вам нужно, чтобы он сидел рядом с вашим редактором и системой автоматизации рабочего процесса. Оба могут создавать полные системы на основе подсказки, но они оптимизируют совершенно разные компромиссы: надежность против скорости, глубина против мультимодальности, долгосрочное планирование против быстрой итерации.
Claude 4.5 Sonnet от Anthropic (а также Opus, когда он станет доступен) в настоящее время ведет себя как старший инженер, который никогда не устаёт. Он обрабатывает контексты из более чем 200 тысяч токенов, так что вы можете загрузить целый устаревший репозиторий, годы спецификаций и запутанную диаграмму ERD за одну сессию и попросить его рефакторить, документировать и расширять систему, не теряя нити повествования на полпути.
Для долгосрочных агентов структура reasoning и осторожный стиль Claude имеют значение. Когда вы просите его организовать 40-шаговый поток данных, поддерживать состояние между повторами и соблюдать лимиты по скорости при взаимодействии с n8n, Supabase и внешними API, он, как правило, генерирует консервативный, защитный код: явная обработка ошибок, идемпотентные операции и четкие точки логирования, которые вы можете напрямую подключить к своему мониторингу.
Используйте Claude, когда точность и стабильность важнее сырой скорости. Типичные сценарии: - Рефакторинг десятилетнего монолита в сервисы - Миграция фундамента автоматизации рабочих процессов из спонтанных скриптов в унифицированную архитектуру n8n - Проектирование и тестирование агентов, которые должны работать без присмотра в течение нескольких дней, не повреждая данные
Gemini 3 Pro от Google выполняет другую роль: быстро, многомодно и тесно интегрировано с экосистемой Google Cloud. Он с легкостью обрабатывает скриншоты, PDF-файлы и доски Figma, а затем генерирует рабочие интерфейсы, Cloud Functions и API-бэкенды, подключенные к Vertex AI, Pub/Sub и BigQuery в одном разговорном потоке.
Укажите Gemini на дизайн панели в Figma, прикрепите краткую функциональную спецификацию, и вы получите работающий React или Next.js приложение, а также базовый план развертывания на GCP менее чем за час. Подайте ему снимок экрана сценария Make или рабочего процесса n8n, и он сможет восстановить логику в виде сервисов на TypeScript, а затем предложить, как разделить обязанности между кодом и вашим интегратором.
Обратитесь к Gemini, когда вам нужно быстрое прототипирование и перевод визуальных макетов в код: - Превратите концепцию SaaS из Figma в кликабельный, оформленный MVP - Создавайте внутренние инструменты из скриншотов существующих админ-панелей - Интегрируйте новые функции ИИ в мощный стек Google Cloud с минимальным количеством ручной настройки
Умные команды все чаще комбинируют их: Клод выступает в роли архитектора дальнего горизонта, а Гемини — многомодальным спринтером, который выводит первую версию на экран.
Новый набор навыков: от строителя к архитектору
Специалисты по автоматизации тихо меняют работу, не меняя при этом должностей. Вместо того чтобы перемещать 40 узлов по холсту n8n, они теперь организуют Claude, Gemini, n8n и Supabase в согласованные системы, которые запускаются за дни, а не кварталы.
Гранулярные, пошаговые настройки имеют меньшее значение, когда крупная языковая модель может организовать весь поток работы на основе одного абзаца инструкций. Запоминание конечных точек API или каждого параметра Google Sheets становится второстепенным по сравнению с пониманием, когда вообще следует вызывать Sheets, и какой контракт данных должен быть уважен при этом вызове.
Высокопроизводительные специалисты теперь ведут себя как системные архитекторы. Они описывают результаты на четком естественном языке, определяют ограничения и позволяют моделям генерировать первые черновики кода, рабочих процессов и схем. Инструменты, такие как Lindy AI – безкодовые AI-сотрудники, поднимают это на новый уровень, позволяя вам «нанимать» готовых агентов и сосредоточиться на том, как эти агенты координируют свои действия, а не на том, как устроены их внутренние системы.
Запросы переходят от "напиши мне сценарий" к многоуровневым техническим заданиям. Эффективные запросы теперь включают: - Четкую бизнес-цель и метрики успеха - Источники данных, назначения и ограничения по безопасности - Режимы ошибок, которые система должна обнаруживать и обрабатывать
Отладка становится новой суперсилой. Вы больше не являетесь основным кодером; вы – главный валидатор. Вы читаете код, сгенерированный ИИ, выявляете хрупкие предположения, добавляете журналирование и просите модель объяснить каждый шаг, пока логика не выдерживает крайние случаи.
Эта роль очень похожа на сочетание технического менеджера проектов и старшего инженера с требовательным подходом. Вы управляете требованиями, критериями приемки и регрессионными тестами, одновременно делегируя выполнение задач AI-парному программисту в редакторе кода, таком как Cursor, или на канвасе для автоматизации рабочих процессов, таком как n8n. Редкий навык заключается не в том, чтобы щелкать быстрее, а в умении мыслить системно и отказываться доверять чему-либо, что вы не подвергли стресс-тестированию.
Ваша первая AI-система: трехшаговый план действий
Начните с основ, а не с магических трюков. Искусственные интеллект-исполнители, такие как Claude и Gemini, кажутся футуристичными, но они по-прежнему отправляют данные через скучные каналы: HTTP-запросы, JSON-данные, вебхуки и токены OAuth. Если вы этого не понимаете, вы ограничите свои возможности.
Выберите интегратор, например n8n или Make.com, и самостоятельно пройдите через 3–5 реальных рабочих процессов. Подключите Gmail к Google Sheets, передайте ответы из Typeform в Notion или настройте оповещения в Slack на основе событий из Stripe. В процессе изучите, как работают вебхуки, что означает ответ 200 против 500, и как массивы и объекты выглядят в JSON.
Рассматривайте это как ваш «благотворительный лагерь по автоматизации». Создайте простую схему обработки ошибок в n8n, используйте переменные окружения для API-ключей и просматривайте сырые HTTP-узлы, пока не научитесь читать ответы без страха. Одна неделя такого упражнения даст вам интуицию, которую ИИ не сможет подделать.
Далее добавьте помощь ИИ поверх тех же рабочих процессов. Используйте возможность "Создание с помощью ИИ" в n8n, чтобы описать поток на простом английском: "Когда в этой таблице Google появится новая строка, подведите итоги и отправьте в Slack", затем проверьте, как связаны элементы модели. Сравните созданные узлы с тем, что вы бы построили вручную.
Сделайте то же самое с платформой, подобной Lindy AI, которая предоставляет готовых "AI-сотрудников". Разверните планировщик встреч, который соединяется с Gmail и Google Календарем, затем изучите его редактор потоков, чтобы увидеть, как он связывает инструменты, обрабатывает крайние случаи и сохраняет состояние. Рассматривайте каждый шаблон как задачу обратного проектирования.
Наконец, перейдите к исполнителю в качестве своего совместного разработчика. Откройте Claude.ai или Google AI Studio и дайте ему четко определенную задачу: «Напишите скрипт, который проверяет URL каждый час и отправляет мне электронное письмо, если он недоступен». Попросите его выбрать среду выполнения (Node.js, Python), реализовать логирование и добавить базовую функциональность повторных попыток.
Как только скрипт запустится, начните итерации. Пусть модель упакует его в контейнер Docker, добавьте простую панель состояния или отправьте журналы в базу данных, такую как Supabase. Когда все будет работать стабильно, подключите этот скрипт обратно к n8n или Make.com в качестве пользовательской точки доступа — и вы построите свою первую настоящую микросистему.
Часто задаваемые вопросы
В чем разница между «интегратором» ИИ и «исполнителем»?
Интеграторы, такие как n8n или Make.com, соединяют разные приложения и сервисы в визуальном рабочем процессе. Исполнители, такие как Claude или Gemini, являются продвинутыми языковыми моделями, которые могут понять цель, спланировать шаги и написать основной код для создания и запуска системы.
Стоит ли продолжать изучать n8n или Make.com в 2026 году?
Да. В то время как ИИ-исполнители справляются со сложной логикой, интеграторы остаются незаменимыми для управления триггерами, вебхуками и подключения сотен SaaS-приложений, у которых нет идеальных API. Они становятся слоем оркестрации для компонентов, созданных ИИ.
Как инструменты, такие как Claude и Gemini, создают целые приложения?
Они используют обширные контекстные окна (чтобы видеть целые кодовые базы), продвинутое мышление для планирования сложных задач и возможности 'использования инструментов' для написания кода, выполнения команд оболочки и взаимодействия с API, фактически выступая в роли автономного разработчика.
Какой пример системы ИИ, построенной с использованием исполнителя?
Распространенный пример - это настраиваемый веб-скрапер. Вы можете попросить исполнителя «создать приложение, которое ежедневно собирает 5 лучших статей из AI-рассылки, резюмирует их и сохраняет в базе данных», и он сгенерирует код для сбора, обработки и хранения данных.