n8n
3 автора упоминают этот инструмент
Делаю курс по вайб-кодингу и ищу кофаундера
Держаться больше нету сил. Мне поступает слишком много сигналов, что это нужно: меня зовут выступать на конфы, регулярно говорят что я вдохновил кого-то на вайбкодинг, и даже просят «порекомендовать вайбкодера». А я всего пару постов написал про вайбкодинг!
Поэтому я решил, что надо делать курс.
Концепт пока сырой, но понятно, что это будет 80% практики. Чтобы каждый на курсе собрал свой проект на основании своих собственных задач, и научился AI-first майндсету.
Скорее всего на курсе участники будет делать лендосы в Lovable, агентов и телеграм-ботов в n8n, скрипты для обработки данных в Cursor, аналитические дашборды в Preset, бэкенды на Supabase, полноценные аппки в Replit, и др.
Курс на русском языке.
Что жду от кофаундера
Все успешные проекты я запускал с кофаундерами, поэтому и сейчас ищу человека, с кем мы сделаем это вместе. Это скорее сайд-проект, то есть речь идет не про фултайм загрузку.
Вот список того, что у вас есть в идеале (но не обязательно сразу всё из этого):
- вы сами шарите в теме вайбкодинга, и мы сможем вместе делать программу, вести воркшопы, давать фидбек участникам и т.д. - у вас есть аудитория - вы делали онлайн-курсы (в любой роли) и понимаете, как сделать хорошо - возможно, вы даже уже делаете какие-то курсы по AI, и мы можем друг друга усилить
——
Если интересно — заполните плиз форму тут (даже если мы с вами знакомы)
https://forms.gle/4M8vW6exVLaqvxn16
Ищу AI-native технаря к нам в проект!
Вторая вакансия в наш AI-проект. Я писал, что не найму никого, пока мы не дойдем до $10к MRR. Эту цифру мы уже прошли, поэтому пора!
Мы делаем Subscription-based mental health B2C app. Fully vibe-coded, то есть мы сами не написали ни строчки кода, но это уже вполне рабочая production версия с живыми юзерами и выручкой. Надо ее дорабатывать и улучшать.
Что надо делать:
⁃ допиливать продукт (в основном вайбкодим в Replit) ⁃ отвечать юзерам в саппорт (и попутно автоматизировать этот процесс) ⁃ фиксить баги и допиливать продукт ⁃ разбираться, почему всё сломалось
А также много всего с помощью AI. Примеры задач, которые я сам делал на прошлой неделе:
⁃ сложить данные из Stripe и Amplitude с помощью Airbyte в BigQuery ⁃ построить в Metabase дашборд на основании данных в BigQuery ⁃ проинтегрировать сапорт-систему с нашей аппкой, чтобы было видно, что происходит у юзеров ⁃ пробросить события в Amplitude, чтобы можно было строить оперативную аналитику ⁃ прикрутить мониторинг, чтобы он кидал алерты, если что-то падает ⁃ настроить proxy-сервер, чтобы через него Google Scripts ходили в банк и парсили транзакции ⁃ настроить в n8n, чтобы алерты из Slack/Email прокидывались в Telegram ⁃ и много всего еще
Требования к кандидату:
⁃ Не обязательно уметь писать код. Но обязательно понимать, как работают алгоритмы, базы данных, API, JSON, SQL и прочие штуки.
⁃ Хорошо, если в прошлом вы разработчик, но в этом проекте вам не надо будет писать код, только промпты.
⁃ Очень желательно техническое образование. У нас слабость на физтехов, но в целом подойдет любой хороший технический универ.
⁃ Это норм, если вы чего-то из этого не умеете. Главное — голова на плечах, умение и желание учиться, и хорошая техническая база.
Почему наша вакансия топ:
⁃ работа на острие технологий. Вы будете использовать самые современные решения и очень многому научитесь ⁃ ЗП в долларах, работа на зарубежном рынке, удаленка ⁃ работа в крутой команде
Откликаться здесь
Если вы уже устали от FOMO, что все вокруг вайбкодят, но сами всё никак не начнете:
Запускаем новый поток курса по вайбкодингу!
(возможно, больше потоков не будет, потом расскажу, почему)
Мы учли опыт первого потока и обратную связь от участников, доработали курс и теперь он будет еще лучше.
В программе — 5 практических воркшопов, в результате которых вы:
- Освоите работу в таких инструментах как Replit, Cursor, Supabase, n8n - Соберете свои приложения, чат-ботов и AI-агентов - Научитесь делать скрипты, дашборды и автоматизации под свои задачи - Узнаете про парсеры и скраперы, и как собирать информацию с любых сайтов - Сможете разработать мобильное приложение
Для новичков — специальный воркшоп «база», где мы расскажем про бекенд, фронтенд, БД, сервер, API, Javascript, JSON, и всякое такое, чтобы даже люди без опыта в IT смогли понимать, как всё работает из первых принципов.
Для опытных — продвинутая информация про то, как поддерживать большие проекты, не ломая то, что есть.
Также теперь есть тариф «для интровертов»: только записи + чат.
Старт — 20го ноября
https://vibecon.io/
Стоило создать отдельный канал, как полился контент про вайбкодинг и не только:
⁃ Если орать матом на Lovable он тоже начинает материться в ответ
⁃ Как мы завайбкодили свою LMS вместо Tilda
⁃ Про новый AI-тул от n8n, теперь по промпту дают собирать воркфлоу
Сегодня напишем про то как быстро и дешево генерить много классных картинок и даже видосов (не в ChatGPT!)
Я завел отдельный канал специально чтобы не спамить сюда темой, которая не всем интересна.
Но теперь мне обидно, что мы уже столько интересного написали и еще кучу всего напишем, а вас там пока мало, поэтому подпишитесь!
https://t.me/vibeconchannel
upd: набор закрыт
Мне очень страшно, но придется это написать:
Мы запускаем курс по вайбкодингу!
Я несколько месяцев вайбкодил почти в фултайм режиме и теперь твердо уверен, что вайбкодинг нужен всем 😎 Причем это не обязательно про создание продуктов, MVP и лендосы, это и просто про автоматизацию ежедневных задач.
Но при этом многим не хватает: - понятных шагов, с чего начать - понимания, как применить это в своём кейсе - кого-то, у которого можно спросить совета, когда что-то не получается
Поэтому — курс!
По задумке он должен подойти как новичкам, так и тем, кто уже вайбкодит.
Для новичков:
- Сделаете свой сайт или приложения без кода - Освоите ключевые инструменты (Replit, Lovable, n8n, Cursor, Supabase и др.) - Сможете собирать скрипты, дашборды и автоматизации под свои задачи - Запустите свой первый проект
Для тех, кто уже вайбкодит:
- Научитесь поддерживать большие проекты, не ломая то, что есть - Освоите документацию и автотесты - Сделаете так, чтобы всё выглядело действительно красиво - Бонус: научитесь делать AI-агентов в Cursor для любых задач
Я нашел классного кофаундера Влада (точнее, я был с ним давно знаком), который уже три года обучает компании внедрять AI, так что я уверен, что курс получится супер.
Первый поток сделаем ограниченный, будем обкатывать программу, но зато сможем дать максимум личного внимания участникам.
Так что залетайте:
https://vibecon.io/
(ну или хотя бы просто зацените лендос, который мы завайбкодили)
«Сейчас лучшее время в истории, чтобы создавать. Никогда ещё путь от идеи до продукта не был таким быстрым»
Сэм вчера с этого начал презентацию OpenAI.
На мой взгляд, самое значимое, что анонсировали — это AgentKit. Теперь можно собирать агентов в наглядном конструкторе (а-ля n8n) и анализировать каждую ноду, что она делает, какой результат выдает, и дотюнивать ее.
Плюс есть коннекторы к внешним данным.
Плюс ChatKit, чтобы любой разработчик мог быстро проинтегрировать этого агента в свой апп, кастомизировав под свой стиль, добавив свои воркфлоу и т.д. (пока нет SDK для нативных мобильных аппов, но, думаю, появится).
Я затестил кратко — там блин целый космолет они сделали. Нихрена не простой тул, надо разбираться. Тянет на отдельный курс! 😅
Но в целом, конечно, это прорыв в агентах. Помните, я написал позорный пост про то, что не верю в агентов, потому что реально очень сложно сделать что-то нормально работающее?
Кажется, я теперь примерно понимаю, как оно постепенно заработает: за счет вот таких вот штук, которые демократизируют разработку агентов.
В реальном времени собираю робосотрудника, который читает за меня почту и ищет счета / инвойсы, для их передачи бухгалтеру!
https://us02web.zoom.us/j/84366293853?pwd=mzPTGoOTzlCt3ZrEqUZybshGJ2MLS6.1
Стримить буду ближайший час. Залетайте поглядеть как в реальности происходит производство таких вот автоматизаций в n8n
Автообогащение лида после заявки, чтобы экономить время менеджера Продолжаю делиться воркфлоу в n8n, которые помогают автоматизировать инбаунд-воронку. Если пропустили: *️⃣Воркфлоу автотрекинга упоминаний бренда *️⃣Воркфлоу для генерации и публикации контента в LinkedIn и Twitter
Часто в CRM прилетает только то, что человек ввел в форму: имя, контакт. Остальное менеджеру приходится искать руками. Муторно и увеличивает SLA.
В n8n можно собрать сценарий, который сразу после заявки автоматически подтягивает из Apollo.io все ключевые данные и отправляет их в HubSpot.
Что делает сценарий: 🟡Принимает данные из формы на сайте; 🟡Отправляет лиду thank you письмо; 🟡Обогащает их в Apollo.io: LinkedIn, должность, компания, сайт, соцсети, телефон; 🟡Создает контакт в HubSpot с уже заполненной карточкой; 🟡Отправляет уведомление команде в Gmail.
Я собрал пошаговый разбор сценария, хаки для настройки, а также готовый json для копирования.
🔜 Сценарий можно забрать здесь
И делитесь фидбеком: получилось собрать или нет, был ли полезен плейбук.
Автоматический поиск упоминаний бренда и конкурентов в n8n Спасибо всем за фидбек на прошлой неделе, он очень помог. Делитесь ещё!в комментах к этому посту тоже.
Соооу:
Собрали сценарий агента с пояснением ценности и готовым JSON, который можно сразу импортировать в n8n.
Агент помогает не терять лиды, потому что вовремя находит упоминания бренда и конкурентов в открытых источниках. Каждый день он отправляет запросы в GPT, анализирует ответы, сохраняет данные в Google Sheets и присылает на почту готовый HTML-отчет. Вы видите, где и в каком контексте вас упомянули, и можете быстро выйти на контакт или отработать репутацию.
📌 Полезно маркетологам, пиарщикам и сейлз-командам, чтобы: — Не пропускать тренды и сигналы спроса — Мониторить контент конкурентов — Автоматизировать рутинный мониторинг и сосредоточиться на работе с лидами
👉 Готовый сценарий агента здесь
Потестируйте и напишите в комментах — насколько удобен и полезен этот формат? Продолжаю пилить агентов в таком виде?
Промпт вместо инструкции Работаю над большим плейбуком по автоматизации инбаунд воронки с помощью n8n. Собираю туда полезные воркфлоу: от отслеживания упоминаний бренда до реактивации лидов.
И подумал: что если не объяснять воркфлоу на словах, а сразу дать промпт для GPT, который на основе скрина генерит тебе готовую инструкцию — что и как собирать в n8n?
Пример: промпт, который помогает собрать воркфлоу для автоматического трекинга упоминания бренда в GPT.
Этот воркфлоу: - каждый день отправляет поисковые запросы в ChatGPT, - ищет упоминания твоего бренда или конкурентов, - сохраняет данные в Google Sheets, - шлет тебе на почту красивый HTML-отчет.
Как с этим работать Берешь скрин воркфлоу и скрамливаешь его GPT вместе с этим промптом: Ты — инженер по автоматизации, эксперт в n8n. Мне нужно собрать такой же воркфлоу, как на этом скриншоте: бот ежедневно отправляет поисковые запросы в ChatGPT (модель gpt-4o), проверяет, упоминается ли мой бренд или конкуренты, сохраняет данные в Google Sheets и отправляет на почту HTML-отчет.
Вот что видно на скриншоте:
1. Daily Trigger — триггер запускается каждый день 2. Setup Queries — нода с JavaScript, где я задаю ключевые слова 3. Query ChatGPT (HTTP) — запросы отправляются в модель chatgpt-4o-latest через HTTP (указываю API-ключ) 4. Process Response — JavaScript-нода парсит и анализирует ответы 5. Save to Google Sheets — данные пишутся в таблицу 6. Generate Email Report — формируется HTML-письмо 7. Send Email — письмо уходит на указанные адреса
Напиши подробную пошаговую инструкцию по сборке этого воркфлоу в n8n:
- Какие ноды использовать и как их настроить - Что писать в каждом JavaScript-ноде - Как правильно отправить запрос к ChatGPT через HTTP - Как подготовить Google Sheets (включая настройку API) - Как собрать HTML-отчет - Как настроить отправку email - Как сделать так, чтобы это все запускалось каждый день
Укажи все важные нюансы, переменные, ссылки на документацию, если нужно. Пиши понятно, как будто объясняешь новому пользователю n8n, который хочет все повторить точно и быстро.
По итогу получаешь пошаговую инструкцию, как тебе собрать такой воркфлоу для себя.
Что думаете? Удобнее ли так работать? Или лучше оставить пошаговые инструкции?
В пятницу был лайв про AI в работе. На котором я не хотел снова рассказывать про маркетинговых AI-агентов. ну тех которые пишут, исследуют, публикуют, рисуют... Хотелось чего-то продуктового, мясного.
Чтобы было: ПРОБЛЕМА → AI → РЕШЕНИЕ.
А у меня как раз 3 недели висела бесящая задача: аналитика работы наших AI-агентов в Dashly (которые консультируют и квалифицируют в чате).
Начали с Дашей и GPT тыкать в разные идеи. Натыкали на решение в n8n, которое сделали за пару часов и ускорили несколько недель разработки.
Теперь у меня есть быстрый способ итерировать с анализом диалогов, находить инсайты, метрить воронку AI SDR.
В общем, балдеж!
К чему это я: 1. Когда есть давление, начинаешь творчески думать, находить хаки и способы роста. 2. Позже расскажу про само решение (тизер получается написал).
3. А вообще я сюда зашел написать, что Сева Устинов вдохновил меня попробовать Cursor как "Notion + ChatGPT". Я уже 5 часов выходных ботаю Cursor и кайфую люто. Как ребенок с кубиками. Тоже позже расскажу.
#AI #Product #Hacks
🕑 Как мы сократили разработку MVP фичи с нескольких недель до пары часов Помните рассказывал, как решал боль анализа наших AI агентов, с помощью воркфлоу в n8n? Хочу еще подсветить скорость.
Когда мы с консультантом разбирали эту боль с аналитикой, пришли к выводу, что наш гигантский промпт для анализа нужно разбивать на серию маленьких, чтобы повысить качество и управляемость.
Но тут возник вопрос: как это быстро проверить на практике?
Путь 1 — делать прямо в продукте: Несколько дней работы 1-2 разработчиков (а у них есть еще и текущие задачи, поэтому непонятно, когда это получится взять в работу), куча итераций, поддержка, релизы. Стоимость — 500к–1 млн рублей.
Путь 2 — собрать то же самое в n8n.
Мы собрали MVP «аналитики диалогов» всего за пару часов — без кода, без релизов. Теперь поэтапно дотюниваем промпты, чтобы улучшить качество аналитики, добавляем новые аспекты анализа. Потом это можно будет перенести в продукт.
По итогу: — меньше кода, — быстрее эксперименты, — проще масштабировать AI внутри продукта.
Ну кааааайф же:)
🎯 Один агент — одна задача Заканчиваю тему с нашей аналитикой через n8n:) Небольшой инсайт о том, как сделать работу агентов более корректной.
Анализировать нужно МНОГО: — валидность самого диалога (полноценный ли это диалог с пользователем или спам/тест), — корректность работы AI SDR (правильно ли он определяет MQL, все ли данные собирает), — качество поддержки (помог ли саппорт агент, был ли вопрос реально решен, передал ли на человека, если нужно), — работу менеджера (включился ли он в диалог, помог ли пользователю).
Мы долго пытались засунуть это все в один огромный промпт. По итогу — ошибки, непредсказуемость, сложно и долго править.
А потом мы собрали в n8n цепочку агентов, где каждый отвечает за свой аспект: один проверяет валидность диалога, другой — работу SDR, третий — саппорт и так далее.
Теперь можно дотюнивать кусочки: поменял промпт у агента-валидатора и сразу видишь, повлияло ли это на результат. Не надо ковыряться в едином гигантском промпте.
Чем конкретнее задача у агента, тем выше качество ответа. Править и масштабировать становится в разы проще.
Автоквалификация и обработка заявок на демо через AI + Cal.сom Я продолжаю собирать плейбук сценариев в n8n для автоматизации инбаунд-воронки. Сегодня — еще один кусочек, который помогает автоматизировать квалификацию входящих лидов и доводить до встречи только MQL.
Что делает сценарий 🔵 принимает данные из формы с сайта; 🔵через Claude AI проверяет качество лида и квалифицирует его; 🔵 валидирует бронирование в Cal.сom; 🔵 запускает персонализированный фоллоу-ап через Instantly.аi; 🔵 отправляет лида в CRM и уведомление команде.
Чем полезен *️⃣Сокращает время на ручную квалификацию. *️⃣Повышает доходимость до демо. *️⃣Делает follow-up точнее и быстрее. *️⃣Освобождает менеджерам время для более глубоких диалогов.
Я собрал пошаговый разбор сценария, хаки по настройке и готовый JSON для копирования 👇 Забирайте сценарий тут сценарий тут
Тестируйте и делитесь фидбеком: получилось собрать или нет, насколько удобен формат плейбука.
Другие выпущенные сценарии: Трекинг упоминаний бренда Генерация контента для LinkedIn и Twitter (X) Автообогащение лида после заявки
Последние пару дней ковырялся в n8n и, честно, немного страдал... Задача была не очень сложная: обработать несколько больших баз инвесторов, отфильтровать, найти их контакты и инфу про них (для персонализации) и собрать все данные в одну табличку. Решили автоматизировать этот процесс, чтобы не делать все вручную.
Но все оказалось веселее, чем ожидалось...
— В n8n до сих пор нет встроенного инструмента web search для AI агентов. Тебе нужно подключить отдельный тул через API. Несложно, но поиск подходящего занимает какое-то время.
— Научить агента использовать этот поиск корректно оказалось еще сложнее. Как я ни уточнял промпт, мой агент так и не смог адекватно использовать серч на большом объеме данных. В итоге web search пришлось выносить в отдельный HTTP Request нод.
— Loop нод — отдельная песня. Каждый раз, когда меняешь что-то в воркфлоу, он запускается заново. Внес небольшие правки в один нод, хочешь проверить, и половина воркфлоу запускается заново. Сильно замедляет процесс тестирования.
— А Google Sheets нод в какой-то момент у меня вообще зажил своей жизнью. Удалял данные, которые трогать не должен был 🫠
В общем, чинишь в одном месте, ломается в другом.
Но воркфлоу собрали, можно заценить его на скрине. Теперь можем обрабатывать большие базы инвесторов и находить нужные контакты за пару минут 💪
АИ-генерация контента для LinkedIn и Twitter (X) Как вы знаете, я собираю плейбук сценариев в n8n для автоматизации инбаунд-воронки. В одном из прошлых постов делился сценарием для автотрекинга упоминаний бренда. Сегодня еще один кусочек этого плейбука.
Сегодня кусочек, который поможет автоматизировать создание контента и его публикацию с минимальной ручной работой.
Контент нужен постоянно, а постоянно держать его в фокусе достаточно сложно. С n8n позволяет автоматизировать почти весь процесс.
Что делает воркфлоу: 🔵Триггерится от идеи или шаблона; 🔵Через OpenAI генерит тексты под несколько платформ сразу; 🔵Дополняет: хэштеги, CTA, эмодзи, оптимизация под формат; 🔵Отсылает на согласование (например, через Gmail); 🔵После одобрения публикует в LinkedIn и Twitter. ---
Что вы найдете в плейбуке: 🔵Схему воркфлоу в n8n — как все связано и откуда что идет; 🔵Пошаговый разбор сценария — какой нод за что отвечает, куда вставлять ключи; 🔵Готовый JSON сценария, который можно скопировать и сразу вставить в n8n.
👉 Забирайте сценарий тут
И ставьте 🔥, если сценарии действительно полезны. Так буду знать, что нужно пилить дальше.
AI Evals: как контролировать качество работы AI‑агентов, чтобы релизы не ломались у клиентов Мы сейчас в процессе сборки AI Evals — системы, которая будет держать качество наших агентов под контролем.
Как мы начинали Начали с того, что было под рукой — реализовали Evals в n8n.
Быстро, доступно, работает. Но n8n не заточен под эту задачу специально. Когда начинаешь масштабировать проверки, понимаешь, что нужен специализированный инструмент.
Зачем нам Evals 1) Чтобы качество было не ощущением, а цифрой Хочу видеть сбор данных, полноту квалификации, релевантность ответа.
И сравнивать версии 1.0 vs 1.1 на конкретных метриках, а не просто "ну вроде стало лучше".
2) Чтобы итерации были быстрыми Когда каждое изменение потенциально ломает крайние кейсы, начинаешь осторожничать. Точно ли надо переходить на новую модель? Не сломает ли это все нахрен у клиентов?
А надо наоборот: быстрее проверяем гипотезы → чаще выкатываем улучшения.
3) Чтобы у клиентов появилось доверие к AI как к продукту Не "верьте нам", а "вот метрики".
Типа: qualification accuracy 72% → 89%. И это уже можно показывать в пилот‑репортах и кейсах.
4) Чтобы это масштабировалось Одного агента с одной конфигурацией еще можно потестить руками.
Десять агентов, десять конфигураций — уже нет.
Нужна система, которая один раз настроена и дальше работает на любой сетап.
5) Чтобы релизы стали стабильными Каждая непойманная регрессия в проде = риск.
Потерянный лид. Недовольный пользователь. Минус доверие.
Нам нужна гарантия стабильности при каждом релизе.
Что именно будем оценивать Чтобы evals не превратились в "оценим все везде и сразу", мы зафиксировали тест‑кейсы.
Support‑агент: — Подобрал правильную статью из базы знаний — Корректно эскалировал и назначил на оператора — Узнал стоп‑фразы и не ушёл в самодеятельность — Вовремя передал диалог человеку — Не оставил мусора: фейковые кнопки, битые ссылки, артефакты
Qualifier‑агент — Корректно применил описание целевой персоны в диалоге — Прошел квалификацию до конца, не слился на полпути — Адекватно использовал тулзы — Не показывал пользователю названия функций/вызовы инструментов (это вообще классика) — Не сломался при сетевых ошибках
На чем делаем Выбрали Langfuse (open‑source + self‑hosting). Хотим один инструмент и для dev, и для prod.
Если интересно, позже покажу, как будет выглядеть дашборд и как мы калибруем оценки.