Vibe Takes

Claude
следит

Он читает каналы и собирает тейки про AI-инструменты. 61 автор — дизайнеры, разработчики, фаундеры.

Саммари на основе постов до 23 марта 2026 — все со ссылками на оригиналы.

ChatGPT vs DeepSeek

Страница 4 из 16

Антон Непша.jsАнтон Непша.js24 сентября 2025 г.4.0K просмотров

Как из фронтендера стать AI-инженером

Термин "AI-инженер" я подсмотрел в роадмапе AI-инженера, ссылкой на который недавно делился Саня Стародубцев.

Я ведь недавно и сам перешёл из фронтенд-разработки в разработку AI-агентов, поэтому мне стало интересно, стал ли я AI-инженером? Мой собственный опыт "переквалификации" не совсем ложится на эту дорожную карту. Есть ещё один роадмап, вот этот, но там порядок тоже не совсем такой, как у меня. В общем, решил поделиться здесь своей альтернативной версией)

Пререквизиты Опыт работы с бэкендом всё-таки понадобится. Одной фронтенд-экспертизы явно будет недостаточно. Работать с API нейросетей скорее всего придётся с бэкенда. С фронта тоже можно, конечно, но в этом есть большой риск утечки вашего API-ключа. Благо у нас, JavaScript-разработчиков, с этим проблем нет))

Впоследствии, конечно, нужно будет углубляться в бэкенд-разработку и заполнять пробелы, если они есть. Но для старта вполне достаточно умения развернуть сервер на Node.js.

Нужен ли ML? Здесь ситуация чем-то напоминает необходимость изучения алгоритмов для junior-фронтендера в 2019 году. Вызвать API DeepSeek можно и без знания линейной алгебры. Но я бы всё-таки порекомендовал хотя бы в фоне изучить этот бесплатный вводный курс по ML от Google. Очень поможет снять розовые очки и демистифицировать работу самих LLM.

Пишем чат-бота Прям сразу. На практике разбираться будет проще всего. У меня всё началось с телеграм-бота, и я всем советую начинать с простых текстовых чат-ботов. Для этого придётся изучить работу с текстовыми сообщениями в OpenAI API или DeepSeek API. Лично я рекомендую начать с руководства GigaChat API, т.к. оно на русском языке, а многие концепции у разных моделей очень схожие. Бесплатных токенов за регистрацию в GigaChat API будет более чем достаточно для старта.

Учим чат-бота выполнять функции Их ещё называют tools. Об этом у меня тоже был пост и примеры кода к нему на JS и на Python. Они нарочно очень простые. У GigaChat тоже есть статья с примерами. А если хочется чего-то совсем запутанного, можно взять шаблон чат-бота из Vercel AI SDK в качестве референса.

Векторные хранилища и RAG Про векторы есть отличная глава в упомянутом мной выше курсе от Google. В роадмапе AI-инженера, кстати, тоже неплохие ссылки по этой теме в разделах Embeddings и RAG.

Фреймворки Лично я пока продолжаю погружаться в LangChain. Я уже трижды выступил с докладом про этот фреймворк (в последний раз — на MoscowJS), выпустил два поста с ответами на вопросы (раз, два) и всё ещё не погрузился до конца)) По этому фреймворку есть миллиард примеров от моих коллег из GigaChain: есть примеры на Python, JavaScript и даже на Java. А от создателей LangChain есть кайфовый видеокурс по LangGraph. Он на английском, но его легко смотреть, даже не зная Python и не зная LangChain.

Источники новостей и апдейтов Очень удобно получать новости с конференций вроде нашего недавнего BigTechNight или с HolyJS, где я тоже скоро буду выступать. Или c разделов на Reddit о тех инструментах, которые вы используете (я, например, читаю в основном про LangChain). Ещё есть Matt Pocock, который параллельно с нами перешёл из TypeScript гуру в гуру нейросетей, выпускает неплохие статьи и видео. Громкие новости об обновлениях у моделей OpenAI / Anthropic / DeepSeek и т.д. всё равно не удастся пропустить. Остальные рандомные новости из соцсетей, кстати, наоборот стараюсь фильтровать: в X что ни пост — так очередная технореволюция)) Хотя, возможно, кто-нибудь в комментариях тоже поделится неплохими источниками информации)

vlad kooklev — ai & startupsvlad kooklev — ai & startups24 ноября 2023 г.3.9K просмотров

🤔 Я больше не доверяю GPT. Куда переезжать?

За последние дни многие люди вокруг задумались, что необходима альтернатива для GPT. Десятки тысяч бизнесов смотрели, как сотрудники уходят из OpenAI и были готовы ко всему. Я провел начало недели за рисерчем доступных решений и решил упаковать результат в пост. Существует два вида решений: 1) сервисы с API над языковыми моделями; 2) поднятие моделей у себя. Сегодня расскажу про первую категорию.

Claude: самая близкая к GPT-4 модель по бенчмаркам, недавно увеличили контекстное окно до 200 тысяч токенов (не совсем эффективных), и добавили function calling как в GPT. В первую очередь я бы начал эксперименты с нее. Из минусов: немного отличается API, промптинг, и также модель напрямую доступна не во всех регионах (зато доступна через Amazon).

Perplexity: в мае я рассказывал про их продукт, как замену Гугла. С тех пор они также запустили API для доступа к их собственной языковой модели, а также Llama2 и Mistral . В анонсе высочайшую скорость инференса среди конкурентов. API работает в формате OpenAI — это значит что переключаться легко. Мне нравится темп их команды и обязательно буду за ними следить. В комментариях поделюсь способом получить бесплатный доступ к Perplexity PRO на 2 месяца — он как раз дает доступ к API и оно пока бесплатное.

Decart: вариант для тех, кто любит потестить сырые стартапы. Они также предлагают API для доступа к моделям — от $0.1 за миллион токенов Llama2 7B. Это самая дешевая цена за инференс, которую я нашел во время рисерча и скорость ответа также порадовала, так что решил про них тоже рассказать. От стартапа есть ощущение, что он в любой момент отвалится, но зато быстро отвечают в твиттере.

Также потестил: Replicate — медленно и по ощущениям, и по бенчамаркам; Anyscale — сложный онбординг, непрозрачная ценовая модель; LiteLLM — библиотека, чтобы приводить разные форматы API к формату OpenAI, чтобы делать бесшовное переключение, показалось удобной.

😲️️️️️️ Когда я начинал рисерч, то не ожидал, что уже есть столько удобных решений на рынке, чтобы эксперементировать с ними. Конечно, они все уступают GPT по качеству, но это не значит, что с ними не нужно учиться работать уже сейчас. Последняя неделя очень ярко показала, как опасен платформенный риски. Нам нужна диверсификация.

dev.insuline.ethdev.insuline.eth8 июня 2025 г.3.8K просмотров

Пост про заработок в интернете и вайбкодинг

1. Simple Gambling Machine Навайбкодил простую гемблинговую машину (что-то вроде FOMO3D, но медленнее и без понци-механик). Работает следующим образом: ⁃ в машине лежит ETH (сейчас около $500) ⁃ машина принимает депозиты от всех желающих (сейчас 2% от ETH внутри машины, далее процент уменьшается) ⁃ если никто не делает депозит в течение определенного периода времени, последний участник забирает 80% пота (сейчас 24 часа, далее период уменьшается) ⁃ 10% распределяются между 5 рандомными участниками, 10% идут на следующий раунд

Короче 50 иксов вот прямо здесь, рядом.

Что с безопасностью: ⁃ открытый код на Github и на Etherscan ⁃ контракт неизменяемый - никаких мультисигов, экстренных приостановок и пр. ⁃ друзья-аудиторы помогли найти и пофиксить пару уязвимостей (детали тут) ⁃ устроить рагпул технически невозможно, хакнуть (вроде) тоже не получится

Ончейн рефки и поинты вайбкодить сложно, поэтому буду благодарен всем кто поделится гемблинг-машиной со своими друзьями-лудоманами! https://simplegamblingmachine.eth.link/

На мобилках скорее всего будет отображаться криво.

2. Вайбкодинг Никогда ничего не кодил своими руками, ибо гуманитарий. За три дня ChatGPT, Gemini, DeepSeek и Cursor написали весь нужный код (под моим чутким руководством), научили в девелоперские энвайронменты, Github и хостинг, ответили на все (даже самые глупые) вопросы.

Мои хард-скиллы пополнились такими вещами как ethers.js, web3.js, viem, wagmi, IPFS, Fleek, Pin CID, Pinata, Arweave, Hardhat, Foundry, React, Chainlink Keepers, и Truffle. Ну, половина из списка точно.

Кому интересно почитать про весь процесс, предлагаю пройти на Paragraph.

3. Заработок в интернете Пока высокотехнологичные проекты заманивают человеческо-денежные капиталы двузначными множителями на поинты, Ekubo (на EVM) дает приятные APR поставщикам ликивдности: ⁃ 10% на USDT/USDC ⁃ 15% на cbBTC/WBTC ⁃ 70% на ETH/BTC ⁃ 100% на ETH/USDC и ETH/USDT

Половина из этих наград - органический APR (комиссии со свапов, без учета наград в EKUBO). Расчет актуален для ренжа примерно в +-6%, а программа майнинга EKUBO рассчитана на 3 месяца.

vlad kooklev — ai & startupsvlad kooklev — ai & startups15 ноября 2023 г.3.8K просмотров

👀 AI теперь видит и сделает за вас рутинные задачи

Раньше для автоматизации действий в браузере этого требовалось цепляться к html-элементам, четко задавать последовательность шагов, из-за этого существовал порог входа. Теперь у GPT появилась способность видеть и открылось новое пространство решать эту задачу. Разберемся, какие новые подходы уже доступны на рынке автоматизаций.

Adept: еще до ChatGPT хайпа показали свою модель для превращения запроса пользователя в действия. Недавно открыла бету в свой первый продукт Experiments и закрыли раунд на $350mln. Важно, они пока не заявляли про поддержку «видения» в своих продуктах, но это явно вписывается в их стратегию построить AGI.

Induced AI: у этих ребят только $2.3 mln. инвестиций, но зато инвестировал Сэм Альтман. Они также предлагают продукт для автоматизации рутинных задач. Для этого планируют использовать смешанный подход: облачное решение, интеграции с сервисами по API, но в тоже время хотят использовать виртуальый браузер, в котором понадобится возможность «видеть». Для этого сейчас нанимают эксперта в Chromium.

VimGPT: опен-сорсная демка и единственный продукт из подборки, который можно по настоящему попробовать. Проект позволяет управлять виртуальным браузером через команды «найди в гугле все ai+sales продукты и прочитай их контент». GPT получает скриншот страницы, анализирует его и составляет очередность действий. Демка очень сырая, но дает понимание текущих возможностей.

😎 Официально GPT Vision используется только в последнем проекте, но я все равно вынес это в заголовок. «Видение» в перспективе станет ключевой технологий на рынке автоматизаций. На наших глазах появиласть возможность автоматизировать любые действия на сайтах без привязок к API или html-элементам. AI-работникам из предыдущего поста понадобится такой же визуальный инпут, чтобы эффективно решать задачи реального мира. Уже придумали какие задачи будете автоматизировать в первую очередь?

@prod1337

dev.insuline.ethdev.insuline.eth19 июня 2025 г.3.8K просмотров

Не путайте теплое с мягким Hyperliquid всего лишь централизованный декс, just kidding

Интересные результаты опроса. Первые 15 человек единогласно проголосовали за то, что написание кода в Claude Code — вайбкодинг.

Если пробежаться по истории канала — то можно заметить, что я активно начал изучать LLM для разработки еще в 2022 году. К примеру, в посте от 14 декабря я поделился первым опытом интеграции LLM в свой рабочий процесс и сказал, что скоро появятся подписки за 200 долларов и нужно быть к ним готовым, чтобы использовать технологию на полную катушку.

Затем, в феврале 2023 релиз опенсорс пакета для упрощения dev experience и автоматической генерации коммитов с использованием openai api.

Так вот, если сейчас сказать кому-либо, что 95%+ моего кода в любых проектах (в тч продакшн, за которые я получаю зарплату) написаны LLM — меня сразу назовут «вайбкодером». То же будет касаться собеседований в проекты, где собеседующий не будет особо знаком с различиями в терминологии.

---

И так, в чем же разница?

Обратимся к первоисточнику — февральскому твиту Андрея Карпатого, когда термин вайбкодинг зародился изначально. Выделю основные парты: https://x.com/karpathy/status/1886192184808149383

you fully give in to the vibes, embrace exponentials, and forget that the code even exists.

I «Accept All» always, I don’t read the diffs anymore.

It’s not too bad for throwaway weekend projects, but still quite amusing.

Здесь сразу присутствует важное определение «я забыл, что код вообще существует» и это немного триггерная тема. Так что давайте разграничим, опираясь на первоисточник и здравый смысл

Вайбкодинг:

— Мы не прикасаемся к коду и не смотрим на получившийся код

— Подходит для быстрого прототипирования и одноразовых проектов

— Нет необходимости понимать программирование

— Разработка через желаемый результат без формирования набора правил и воркфлоу

AI Assisted development:

— Использование AI как junior разработчика, который работает под супервизией

— Автоматизация рутинных задач в разработке (написание тестов, бойлерплейтов)

— Помощь обработки больших контекстов информации и форматирования ее (написание или изучение документации, ревью кода)

— Итоговый код важен. Он должен быть качественным и понятным другим людям

---

И вот тут главная проблема.

Когда эти два понятия смешивают, вся AI-разработка получает дурную репутацию. Её начинают воспринимать как бесполезный хайп (вспомним отношение к крипте в 21 году, когда все только смеялись над NFT), которая генерирует нерабочий мусор. Это фундаментально неверно и дискредитирует мощнейший сдвиг в индустрии.

Разница между этими подходами — в контроле.

Вайбкодер отдает руль ИИ и надеется на лучшее.

Разработчик использует ИИ как самый продвинутый навигатор и усилитель руля, но держит руль крепко. Он все еще ведет машину и несет за нее ответственность.

Именно поэтому, когда я говорю, что 95% моего кода написано LLM, это не делает меня вайбкодером. Это значит, что я, как инженер, делегировал рутину, чтобы сфокусироваться на главном.

Моя работа — это не сгенерированные 95% кода. Моя работа — это те 5%, которые определяют, будут ли эти 95% работать как надо, или превратятся в тыкву в продакшене. Это архитектура, контроль качества и финальные решения.

Роль разраба меняется. Мы перестаем быть строителями, которые кладут каждый кирпич вручную, и становимся архитекторами, которые управляют бригадой роботов-строителей. И путать эти два подхода — значит не просто ошибаться в терминах. Это значит не видеть, как на наших глазах меняется сама суть профессии

Ночной ПисаревскийНочной Писаревский23 января 2026 г.3.8K просмотров

Ровно год назад я написал пост про то, что не верю в агентов.

Обещал вернуться к нему и оценить, ошибался я или нет.

Очевидно, что есть ниши, в которых агенты просто взорвали:

• Кодинг. Claude Code, Cursor, Lovable, Replit — это ни что иное как агенты, и они полностью поменяли процесс разработки и создания продуктов

• Саппорт. Fin от Intercom растет лютыми темпами и автоматически закрывает 2/3 обращений в саппорт сам. Есть куча решений-конкурентов, которые не сильно хуже. Многие компании успешно внедрили себе разных AI-агентов в саппорт и они закрывают от 20% до 90% тикетов.

• Research. Мало кто задумывается, но Deep Research от ChatGPT — это тоже агент, и он офигенно работает и решает свою задачу. Ну и много других прикладных инструментов для более узких задач.

При этом есть еще куча ниш, где работает пока не так хорошо, но есть потенциал:

• Sales & RevOps. Агенты квалифицируют лиды, ведут initial discovery, отвечают на inbound запросы, назначают встречи, делают follow-ups, обновляют CRM. Дима Сергеев, например, делает data-driven агентов для inbound воронки (надеюсь, у него все получится)

• Marketing & Ads. Агенты делают креативы, анализируют трафик, управляют рекламными кампаниями. Сева Устинов, например, делает AI-агента для управления рекламой (тоже надеюсь, у него все получится)

• Финансы и бэк-офис. Агенты обрабатывают инвойсы, раскидывают расходы по категориям, проводят комплаенс-проверки. Илья Лисин, например, делает AI-агента, который автоматизирует создание компании, бухгалтерию и подачу налогов (тоже надеюсь, у него все получится)

Ну, и куча других ниш, где пока нихрена ничего не работает 🙂

Но, если краткий вывод — то я скорее ошибался.

«Мы часто переоцениваем прогресс на горизонте года, и недооценивает его на горизонте 10 лет»

Думаю, примерно это и происходит сейчас с AI: да, он не заменит нас всех прямо завтра, но через 10 лет мы не узнаем мир, в котором живем

dev.insuline.ethdev.insuline.eth21 декабря 2025 г.3.7K просмотров

gm! Воскресный оффтоп, который пройдет за пределы ежедневника. Я люблю играть в доту и недавно увидел как Resolut1on (бывший про игрок) презентует своего AI Dota 2 Coach. Заинтересовался, посмотрел – и tbh разочаровался. Фактически это GPT-4o с системным промптом, устаревшими данными и галлюцинациями вместо правильной работы с данными. офк по подписке.

И тут я подумал – а почему бы не сделать нормально?

---

В мире AI агентов сейчас интересный тренд. MCP (Model Context Protocol) оказался слишком сложным и жрёт много контекста. Индустрия ищет альтернативы.

Одна из них – Skills. Недавно спецификацию отдали в опенсорс, уже куча инструментов поддерживает: https://agentskills.io

Суть скилла проста: название, описание, набор тулов и воркфлоу. Тулы – самое важное. Для доты я сделал такие:

— чтение последних патчноутов — статистика героев и понимание меты — контрпики — моя персональная статистика

Откуда данные? OpenDota, Stratz, официальный Valve Datafeed. Под каждый источник – простой TypeScript CLI, который форматирует данные для LLM. Делается за один промпт.

Дальше это упаковывается в воркфлоу: мета-репорты, анализ драфта прямо во время игры, разбор своих матчей. Всё работает локально в Claude Code.

Можно расширять бесконечно – анализ реплеев, агент-лудоволк, трекинг просцены. Но для MVP хватит.

📎 skill.md: https://gist.github.com/insulineru/0aee1fc00d44c9df4631507ce7ed2570

Segment@tion faultSegment@tion fault11 июня 2025 г.3.5K просмотров

ChatGPT проиграл в шахматы ретро-консоли 1977 года, у которой всего 128 байт оперативной памяти. Старая Atari оказалась умнее нейронки даже на сложности для новичков. Чат-бот путал фигуры, забывал расстановку и жаловался на непонятную форму фигур.

EDUEDU23 декабря 2025 г.3.5K просмотров

Мой год с chatGPT

В целом, все так :-)

Шерьте свой в комментариях

P.S. Ох, вспомнилось, какие крутые year in the air видео мы делали в app in the air

Антон Непша.jsАнтон Непша.js24 января 2025 г.3.4K просмотров

ChatGPT Operator

OpenAI выпустили preview-версию агента, который имеет доступ в интернет и может выполнять там различные задачи.

Operator использует модель Computer-Using Agent (CUA), которая натренирована на взаимодействие с графическими интерфейсами, а не с программными API.

Что умеет CUA Вы делаете промпт, например: Закажи гавайскую пиццу в такой-то пиццерии на такой-то адрес И агент прямо на сайте openai откроет встроенный браузер, в котором зайдёт на сайт пиццерии и закажет эту пиццу.

Что происходит под капотом Работа агента делится на три этапа:

1) Восприятие AI уже умеют анализировать изображения, поэтому агент без труда поймёт, что изображено на скриншоте сайта пиццерии. Скриншот используется в качестве «контекста» модели.

2) Рассуждение Агент анализирует текущее состояние и предыдущие свои действия, выдавая свой «внутренний диалог» в окне чата с пользователем. В случае чего — агент задаёт дополнительные вопросы, прежде чем продолжить.

3) Действие Клик, скролл, ввод текста на сайте.

Цикл повторяется до тех пор, пока изначальная задача не будет считаться выполненной, или пока не понадобится какое-то дополнительное подтверждение от пользователя.

В теории, так должно работать.

На практике агент справляется с рутинными задачами медленнее, чем человек. За то время, пока вы сидите и смотрите, как operator скроллит экран браузера и жмёт какие-то кнопки, вы успели бы заказать уже 10 пицц.

Хотя если посмотреть на цифры, то CUA справляется с 57.1% задач бенчмарка при работе с вебом, а человек — с 78.2%. Странный результат, но как будто бы нас почти догнали))

Итоги Где-то год назад я мечтал о том, что AI будет за меня двигать по статусам задачи в JIRA, заполнять релизную документацию и выполнять прочие рутинные вещи. Сегодня мы уже видим, как это может выглядеть.

Правда, доступ к operator сейчас есть только у пользователей с ChatGPT Pro (за 200$ в месяц), поэтому я пока не посмотрел, как они сделали встроенный браузер))

рис. AIрис. AI9 января 2026 г.3.3K просмотров

🔥 Записал ДВА ГАЙДА по вайбкодингу в терминале

1. Claude Code. Это мой основной инструмент. OPUS 4.5 МОЙ ЛУЧШИЙ ДРУГ. Любая задача — сразу в терминал брейнштормить. В гайде весь мой флоу включая Superpowers.

2. OpenCode open-source альтернатива Claude Code. Скиллы есть. Субагенты есть. Неделю гонял с разными провайдерами: Cerebras, OpenRouter, бесплатный OpenAI за дата-шеринг, Gemini через API (подаренные $300 надо как-то тратить). В гайде повторяю флоу Клод Клода

Claude Code 👉 https://youtube.com/live/_4ZcgpvDliA OpenCode 👉 https://youtube.com/live/4pDegokkkMk (смотрим на 2х, таймкоды присутсвуют)

Дратути АнтонДратути Антон7 августа 2025 г.3.3K просмотров

Допустим 😀

Техрепорт GPT-5: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf

GPT-5 is a unified system (не одна модель).

Антон Непша.jsАнтон Непша.js13 февраля 2025 г.3.2K просмотров

Как заставить нейросеть выполнить ваш код на JS или Python

Нейросети вроде ChatGPT, DeepSeek или GigaChat можно научить взаимодействовать с окружающим миром: менять файлы на вашем диске, вызывать сторонние API или выполнять иные задачи в живом окружении.

Это делается довольно просто, и у большинства нейросетей применяется один и тот же подход: как у ChatGPT или DeepSeek, так и у GigaChat. Все они умеют работать с функциями.

Что такое функции Если мы посмотрим на API любой нейросети, то функции там будут выглядеть непривычно. Вот пример функции из документации GigaChat:

{ "name": "weather_forecast", "description": "Возвращает температуру на заданный период", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "Местоположение, например, название города" }, "format": { "type": "string", "enum": [ "celsius", "fahrenheit" ], "description": "Единицы измерения температуры" }, "num_days": { "type": "integer", "description": "Период, для которого нужно вернуть" } }, "required": [ "location", "num_days" ] } }

Функция — обычный JSON.

Какой код эта функция выполнит? Здесь всё просто. Никакой)) До тех пор, пока мы сами его не напишем. Поэтому придётся по-старинке объявить где-то у себя в коде обычную функцию с названием weather_forecast, как в поле name в объекте выше. Принимаемые параметры тоже делаем такими же, как в описании. И реализацию этой функции тоже пишем сами.

Как нейросеть сможет её вызвать? Нам нужно сообщить модели о том, что у неё есть такая возможность. Для этого передаём описание этой функции в запросе API нейросети, прямо вместе с вашим текстом.

Вот пример тела запроса с функцией в GigaChat API:

{ "model": "GigaChat", "messages": [ { "role": "user", "content": "Погода в Москве на три дня" } ], "function_call": "auto", "functions": [ // Добавляем все свои функции вот сюда ], }

У ChatGPT это работает похожим образом, даже названия полей местами совпадают.

Что происходит дальше? Модель распознает ваше сообщение и самостоятельно примет решение о том, нужно ли ей вызывать какую-то из функций, которые мы ей передали. Решение будет приниматься на основании вашего сообщения и текстовых описаний того, что функция делает и какие параметры принимает.

Если нейросеть посчитает, что функцию вызвать нужно, она вернёт в ответе название этой функции и параметры, которые нужны для её вызова. А нам остаётся сделать условный:

const { function_call } = response.message // проверяем, что в ответе от нейросети есть признак вызова нашей функции if (function_call.name === "weather_forecast") { // вызываем функцию, которую сами же и написали weather_forecast(function_call.arguments) }

Всё. Естественно, вместо прогноза погоды функция может быть любой.

Мой бот, например, присылает мне в телегу логи с сервера, если я достаточно вежливо его об этом попрошу)

А в Python у библиотеки LangChain есть специальный декоратор tool, который упрощает создание функций. Если внутрь функции с этим декоратором добавить описание в docstring, то библиотека сразу сформирует нужную структуру, готовую для того, чтобы передать её в нейросеть.

Дима из ГлубиныДима из Глубины7 июля 2025 г.3.1K просмотров

Ребята, еще можете успеть на июльский поток курса про JTBD. Напомню, что не смотря на всякие чатыгпт, это все еще лучший способ разобраться в теме и прокачать свое понимание потребностей пользователей 🙂

Миша НаерМиша Наер17 февраля 2026 г.3.1K просмотров

Короче заметил по ребятам вокруг (и по себе), что с приходом кодинг агентов словарь обогатился кучей новых терминов, и многие в них путаются. Поэтому попробую написать пару постов простым языком про сущности, с которыии приходится работать часто

Agent Rules

Это аналог Custom Instructions в ChatGPT. В рулы пишут правила, которые кодинг агент читает перед началом работы, сохраняет себе в контекст и дальше следует им при выполнении абсолютно каждой задачи.

Я использую вот такие рулы:

## Общие принципы - Пиши **только по-русски**; если данных недостаточно — остановись и задай вопросы вместо догадок. - Не соглашайся автоматически: проверяй мои утверждения, указывай риски/альтернативы, задавай наводящие вопросы. - По умолчанию выбирай безопасные решения и следуй best practices безопасности.

## Режимы работы и границы - Делай ровно то, что я попросил: никаких лишних действий, кода, рефакторинга и “улучшений” без запроса. - Всегда начинай с чтения /memory-bank и учитывай его как источник контекста. - Сначала диагностика, затем изменения: не правь код, пока я явно не разрешу.

## Процесс диагностики (обязателен) - Сначала найди проблему в коде/конфиге/логах; до этого не предлагай правки. - Уточни задачу и сформулируй план короткими шагами. - Проверь гипотезу 3 раза и укажи уверенность в процентах.

## Формат ответа на баг/задачу Всегда используй шаблон: - ПРОБЛЕМА: … - ГДЕ ИМЕННО: … - КАК БУДЕМ РЕШАТЬ (план): … - ЧТО ИЗМЕНИТСЯ ПОСЛЕ: … - КАК ПРОТЕСТИРОВАТЬ ПОСЛЕ РЕШЕНИЯ: (конкретные действия в боте) … - УВЕРЕННОСТЬ: X% - ВОПРОС: Могу ли я начать исправление?

## Изменения, тесты, отчёт, память - Цикл работы: предложи тесты/проверки → (после разрешения) внеси минимальные изменения → убедись, что проверки проходят. - Изменения делай минимальными; не дублируй общий код (если нужно — выноси в модуль, но только по необходимости). - После каждого изменения: краткий отчёт (что/почему/какие файлы) и обновлениекаких лишних дей(только релевантные файлы).

Чтобы начать использовать в своих проектах, делаем следующее.

Если вы сидите на Codex

1. Копируем эти рулы и сохраняем в текстовый файл на компе 2. Называем файл AGENTS.md 3. Открываем Finder 4. Делаем Shift + Command + G и вписываем в инпут ~/.codex 5. Сохраняем AGENTS.md в эту директорию 6. Готово! Теперь в любом проекте Codex будет подсасывать ваши рулсы

Если вы сидите на Claude Code, то файл с рулсами называем CLAUDE.md и сохраняем в ~/.claude/, все остальное работает так же

vlad kooklev — ai & startupsvlad kooklev — ai & startups23 августа 2024 г.3.0K просмотров

💫 Как я стал AI-консультантом

C начала года я провел в 10 раз больше консультаций, чем за всю жизнь до этого. Повлияли на это два фактора: рост подписчиков и взлет AI-хайпа.

👋 На скриншоте Артем, он директор по продукту. Мы созваниваемся уже полгода каждую неделю. На звонках мы генерируем и валидируем вместе AI-гипотезы, ищем дешевые способы внедрения в продукт, обсуждаем и подбираем лучшие на рынке AI-инструменты.

С каждого такого звонка я выхожу счастливым и полным энергии. При этом, я все время относился к консалтингу как к чему-то стыдному: на канале ни одного упоминания, все запросы на консультацию пришли самостоятельно. На это повлиял базовый нарратив окружения — «нужно делать и развивать продукты, а не продавать свое время по часам» и что-нибудь рядом обязательно про leverage и Навала Равиканта.

Вчера я снова круто провел консультацию — на этот раз для одной из крупнейших консалтинговых фирм. На этом моменте даже мой внутренний критик решил отойти в сторону — из этого родился пост с простым достаточно смыслом. Если вам нужна консультация по AI, то напишите мне:

👇 Ниже список запросов, с которыми ко мне обращаются чаще всего: - Архитектура AI/LLM-продуктов; - Мы хотим внендрить куда-нибудь, не знаем куда; - Я пропустил весь AI-хайп, помоги наверстать; - Продуктовая стратегия для AI-продукта; - (и также масса других запросов);

📆 Начать можно со звонка-знакомства, его можно забукать по ссылке. Если пока не уверены или есть вопросы, то просто напишите.

Антон Непша.jsАнтон Непша.js7 сентября 2025 г.3.0K просмотров

Маршрутизация LLM через промпт или через tools

Я никакой не Data Scientist, я просто фронтендер. Но даже фронтендеру иногда бывает интересно, что лучше отработает — обычный промпт типа такого: Верни слово "auto", если пользователь говорит про автомобили. Верни слово "movie", если пользователь говорит о фильмах… или передача в LLM функций (или тулов) с описанием каждой из категорий, между которыми LLM нужно сделать выбор.

И да, эту задачу можно было бы решить и с помощью векторов, но мне захотелось сравнить именно эти два подхода.

Первый способ может показаться ненадёжным и контринтуитивным — мы ведь не используем structured_output, поэтому ответ модели здесь не так строго типизирован, как во втором случае. Но так ли всё просто?

Как я сравнивал промпт и тулы — Написал первый промпт. Он будет проверять, насколько хорошо LLM маршрутизирует, используя обычное текстовое описание: Твоя основная задача — правильно определить категорию вопроса пользователя. Если вопрос касается автомобилей, ответь "auto". Если вопрос касается кораблей, ответь "ship". Если вопрос касается фильмов, ответь "movie". Если вопрос касается мотоциклов, ответь "moto". Если вопрос не относится ни к чему из вышеперечисленного, ответь "incorrect". Если из фразы клиента не удалось понять, к какой категории относится вопрос, задай клиенту уточняющий вопрос.

— Второй промпт выглядел так же, как и предыдущий, но без описания категорий — их я вынес отдельно в функции. Этим промптом я буду проверять качество маршрутизации с помощью тулов. Получилось в итоге следующее: Твоя основная задача - правильно определить категорию вопроса пользователя. Если из фразы клиента не удалось понять, к какой категории относится вопрос, задай клиенту уточняющий вопрос.

— Описал 25 тестовых фраз и их ожидаемый результат по каждой из них.

— Запустил все 25 тестов с первым промптом, затем 25 этих же тестов со вторым промптом и тулами.

— Повторил проверки на шести разных моделях GigaChat и на DeepSeek.

Результаты Что касается DeepSeek, то почему-то даже на один мой запрос их API отвечал целых 5 секунд, поэтому он выбыл из гонки, так особо в ней и не поучаствовав.

А вот GigaChat показал интересную статистику:

Во-первых, промпт с тулами отрабатывал в среднем в 2-3 раза медленнее обычного текстового промпта — 25 вызовов GigaChat с текстовым промптом отрабатывали за 6-8 секунд, в зависимости от модели. А 25 запросов с тулами занимали в сумме от 18 до 23 секунд.

Во-вторых, промпт с тулами расходовал в 2-3 раза больше токенов — от 800 до 2300 за обычный текстовый промпт, и от 2400 до 4600 токенов за промпт со structured_output.

В-третьих, structured output не всегда давал 100% точность. Было интересно увидеть, как GigaChat-Max и GigaChat-2-Max с обычными текстовыми промптами показали максимальную точность (25 из 25) среди всех моделей.

Что ещё более странно — наименьшую точность среди всех моделей показали эти же GigaChat-Max и GigaChat-2-Max со structured_output (21 из 25).

Я понимаю, что объём тестовых данных у меня совсем небольшой. Уверен, что если бы тестов у меня было не 25, а 25000, то результаты, скорее всего, были бы совсем иными.

Но в любом случае результаты меня очень удивили. Проверяйте свои инструменты внимательно под каждую задачу))

Segment@tion faultSegment@tion fault28 сентября 2025 г.3.0K просмотров

GPT конечно часто косячит, но в паре с человеком это большая сила.

Перед тем как бросить играть в свои игры, я сделал фейковый аккаунт, с которого набегал на все альянсы, плевав на правила (сделать это в любой современной игре несложно, если хорошо знать механику, даже если ваш уровень героев/баз ниже плинтуса).

Изначально планировалось молчать в игровом чате, но троллить хотелось. Тогда я придумал легенду, что я - молодой чав из Лондона (местный гопник) и поэтому хулиган.

GPT влился в игру отлично. Он прекрасно переводил мне все фразы с английского на «чавский», придумал в каком районе и с кем я живу, за какую футбольную команду болею, что ем и что слушаю. «Чавский» профиль вместе с ИИ мы гоняли неделю, за все это время ни один коренной британец близко не понял, что я даже не носитель языка, мне в два раза больше лет чем моему персонажу, а с ним говорит фактически бот, которого направляют в своих целях.

ИИ пока, к счастью, не личность. Но создать с помощью человека искусственную личность может элементарно. Still run tings round my endz ✌️

Design Mind · Vlad KalashnikovDesign Mind · Vlad Kalashnikov4 декабря 2024 г.3.0K просмотров

Как можно использовать Chat GPT в работе дизайнера

Сейчас активно пытаюсь внедрить нейросети в свою работу, чтобы максимально оптимизировать рабочий процесс и научиться актуальным навыкам. Особенно рад появлению в Chat GPT поиска информации в интернете, что сильно упростило многие вещи в повседневной жизни.

Конечно, нельзя просто взять и использовать ответы нейросети, нужно их обработать и подредактировать. Но ответы очень экономят время на поиск первых идей, от которых можно здорово оттолкнуться и найти более интересное решение самостоятельно или также с помощью нейросети.

С Pro подпиской можно создать своего бота в ChatGPT и загрузить в него всю нужную информацию о проекте, и потом не нужно будет каждый раз объяснять суть проекта.

А вот use-кейсы ChatGPT, которые я использую в работе:

1. Загрузить спецификацию по задаче и позадавать вопросы

2. Созвониться по задаче, записать звонок и попросить сделать выжимку

3. Составить Job&User Story

4. Найти и проанализировать аналогичные или похожие функции на рынке

5. Выгрузить фрейм с дизайном в PDF из Figma и закинуть в Chat GPT, а затем попросить составить корнер-кейсы, которые нужно учесть

6. Составить чеклист для проверки дизайна, также выгрузить в PDF и попросить проверить дизайн

7. Найти метафору для иконок или написать текст

Еще есть несколько идей, которые хочу попробовать в будущем:

1. Составить промпт для менеджеров, чтобы стандартизировать описание задачи для дизайнеров

2. Создать гайд для глубинного интервью или для количественного опрос, а затем обработать

3. Составить сегменты пользователей 4. Сформулировать гипотезы

5. Составить CJM/User Flow/Product Map, но это уже c Figma AI будет удобнее

Вот такие кейсы получились. Планирую не останавливаться и дальше изучать возможности AI. Кстати, пишите в комменты, какие use-кейсы вы используете и норм ли сейчас вообще использовать AI в дизайне, кроме генерации контента ↓↓↓

vlad kooklev — ai & startupsvlad kooklev — ai & startups5 июля 2023 г.3.0K просмотров

🧑‍💻 Три новых AI-тула для разработчиков, которые изменят рынок

Помните я пару месяцев назад писал, что AI заменит разработчиков и это наступит достаточно скоро? За последние недели мы еще сильнее приблизились к этой точке. Сегодня я расскажу про три новые проекта, которые помогают автоматизировать процесс разработки и умеют делать это хорошо.

1. MetaGPT — самый интересный из трех проектов для меня. Это фреймворк, который последовательно эмулирует роли всех членов продуктовой команды в виде агентов. Босс-агент создает бизнес-требования; продакт-агент создает PRD; затем идут такие же агенсткие этапы работы над архитектурой, проектным менеджментом и наконец самой разработкой и QA.

За $0.2 за запросы к модели создается схема с архитектурой системы (закину пример в комменты), а за $2 уже целый запрограмированный проект. Работает классно и именно за такими мультиролевыми связками агентов лежит будущее автономных-агентов.

2. gpt-migrate — этот проект позволяет автоматически мигрировать код проекта с одного фреймворка или языка на другой. Самый базовый пример будет мигрировать чужую библиотеку с Python на JS. В этом проекте уже на всю начинает ощущаться сила gpt-4 с 32k контекстом, в работе рекомендуют использовать как раз его. Миграция среднего проекта обойдется в ~$10+ долларов коста на запросы.

3. aider — проект позвоялет разрабатывать прямо из терминала, используя запросы на человеческом языке. Создаем проект и последовательно пишем какую часть системы мы хотим добавить или отредактировать — change the fibonacci function from recursion to iteration. В этом месте самое время процитировать Andrey Karpathy — “The hottest new programming language is English”. Здесь тоже рекомендуется к использованию gpt-4 и кост будет на уровне предыдудущих двух проектов.

😎 Мои дальнейшие предсказания: 1) ближайшее будущее AI-агентов за узкими юзкейсами, на которые они заточены. Концепция general-агентов для всего (autogpt) отойдет в сторону, пока мы не получим еще более сильные языковые модели; 2) главным драйвером адопшена ai-агентов и автоматической ai-разработки станет момент, когда прайсинг gpt-4 упадет до уровня gpt3.5 → тогда мы получим огромное количество дешевых экспериментов и найдем новые эффективные способы применения за копеечные косты.

@prod1337