Vibe Takes

Claude
следит

Он читает каналы и собирает тейки про AI-инструменты. 61 автор — дизайнеры, разработчики, фаундеры.

Саммари на основе постов до 23 марта 2026 — все со ссылками на оригиналы.

Claude

40 авторов упоминают этот инструмент

melikhov.devmelikhov.dev16 мая 2025 г.7.7K просмотров

Все побежали и мы побежали

Ну как, выбор между Roo и Cline сделали? На Claude, небось? Мемори банки собрали? В своей продукт добавили агента? А моделька в продукте у вас какая — Qwen или DeepSeek? Как так нет локальной модели, а куда вы будете грузить пользовательские данные? А как тюнили под задачи, RAG? А MCP-сервер уже запилили? В опенсорс его закинули?

Что ж так быстро-то всё меняется, выдохнуть некогда. Архитектуркой бы позаниматься, долги позакрывать. Но некогда. Рынок требует AI. Надо пережить эту волну, но кто бы знал, какая будет следующая.

melikhov.devmelikhov.dev7 июня 2025 г.7.6K просмотров

RAG на коленке

Решил тут на днях собрать пруф оф концепт чат бота по документации внутреннего проекта. Раз проект внутренний, то никакая LLM про его документацию не знает и, тем более, сходить по сети за ней не может. А значит нужен RAG. Вот тут можете можете почитать, что это такое. TLDR — смотрим, что пользователь спросил, находим нужные разделы в документации и подмешиваем в промт. Дальше моделька сама справится.

Обычно для поиска используют векторы. Векторный поиск позволяет бодро искать фрагменты совпадающие с запросом по смыслу, а не просто по совпадению слов. Для векторизации нужны нейронки, которые умеют делать эмбеддинг — преобразовывать текст в вектор. Берём наши доки, бьём на чанки, вычисляем векторы, сохраняем. Приходит запрос пользователя — делаем из него вектор и вычисляем косинус угла между запросом и имеющимися данными в бд. Чем ближе косинус к единице, тем ближе запрос пользователя к нужному фрагменту документации.

Результат офигенный конечно. Но вот зараза, у меня нет под рукой нейронок для эмбеддинга. Во внешний мир ходить не хочу, проект внутренний. Что же делать, как показать пруф оф концепт? Собираем с Клодом веб-скрейпер на плейрайте, дербаним доку в JSON, кормим этот JSON приложению на ноде, обслуживающему чат. Теперь на каждый запрос пользователя выбираем слова подлинней, лезем в JSON и находим совпадения (ахах, да, можно было бы и морфологию прикрутить, но некогда, работа не ждёт). Собираем промпт по совпадениям и закидываем в LLM вместе с запросом пользователя. И оно работает. Да, неоптимально, чертовски неоптимально. Но для PoC за глаза хватило.

ElKornacioElKornacio4 декабря 2025 г.7.5K просмотров

чтоб вы понимали, я отчаялся настолько, что пишу статьи, то есть просто текст ✨В КУРСОРЕ ✨. даже сделал себе отдельный суперкодовский кастом-мод с системным промптом на 3 листа А4, лол, который считает себя копирайтером по конкретной теме.

потому что там я раз в 5 лучше результат получаю, чем в ChatGPT / AI Studio, при использовании тех же моделей.

я кекал с историй, что некоторые ребята Курсор используют как универсальную агентскую среду, без привязки к задачам разработки, а вот теперь что-то даже и не смешно. мб tavily туда через mcp затащить, и вообще забыть про chatgpt навсегда

P.S. нет, ну вот прям серьёзно - тулинг дико решает. ChatGPT запрос "отредактируй только второй абзац, не трогай первый" - не может решить, переделывает текст в первом. а в Cursor модель просто дёргает тул search_replace (дефолтный тул для редактирования кода в Курсоре) - и идеально исправляет только то, что надо, ещё и токены экономит. кайф.

partially unsupervisedpartially unsupervised5 марта 2026 г.7.5K просмотров

Чтобы гора сгенеренного кода меня не поглотила, к процессу вайбкодинга AI assisted разработки нужно было добавить и AI-based ревью. Но ожидаемо Клод слишком любит код, написанный Клодом, и мышей ловил недостаточно.

Так я начал использовать opencode с Gemini для ревью. Сначала все было хорошо, Gemini - такая странная модель, которую нельзя подпускать к написанию кода (мой любимый комментарий про это), но критиковать умеет по делу. Opencode был всем неплох, но жрал тонны памяти и периодически зависал в неинтерактивном режиме (в т.ч. на CI). Короче, not invented here синдром назревал.

https://github.com/arsenyinfo/nitpicker - just another code review agent. Быстрый, маленький, умеет в LLM council (хоть где-то пригодится подписка на z.ai и minimax), и за счет этого ловит довольно много ошибок (хотя и ценой ложных срабатываний).

ElKornacioElKornacio11 февраля 2026 г.7.5K просмотров

а вот и релиз бенчей, и карточка модели подъехали (GLM-5).

в целом - сравнима с Opus 4.5 (не путать с 4.6). где-то чуть ниже, где-то чуть выше, в целом - рядышком.

ElKornacioElKornacio19 декабря 2025 г.7.4K просмотров

btw, Anthropic заопенсорсила Skills: https://agentskills.io/home

... правда, на момент "опенсорсинга" его уже итак поддержали крупные вендоры ...

... да и опенсорсить там, если честно, +- нечего... по сути очень тонкая документация ...

... не говоря уже о том, что context-based retrieval для rules в Cursor был завезён год назад, и де-факто это точно такая же механика, что и у Skills ...

--

вообще вокруг Claude Code сформировался небольшой странный культ, когда завезённые туда фичи воспринимаются как супер-инновация, когда другие тулы поддерживают их уже сто лет как. главная, и самая сильная инновация Claude Code - очень крутой механизм субагентов, который и по сей день в настолько же удобном виде мало кто повторил (хотя Cursor вон в бетку недавно завезли, но пока сыровато). но когда вижу в инете, как писаются кипятком от того, что в CC добавили conditional rules по файловым маскам.. или что другие conditional rules, по которым агент сам решает грузить их или нет на основе поля description, называют Skill и позиционируют как инновацию, это очень удивляет 🙂

ElKornacioElKornacio8 декабря 2025 г.7.4K просмотров

Вышло масштабное исследование от a16z и OpenRouter про то, как люди реально используют LLM. Проанализировали 100 триллионов токенов* за год.

* 1 токен ≈ 4 символа или ≈ 0,75 слова. То есть 100 токенов — это примерно 75 слов, а 100 трлн токенов — 75 трлн слов. В Библии ≈ 783 000 слов, то есть в исследовании OpenRouter проанализировали массив из 100 млн Библий.

OpenRouter — это агрегатор доступа к LLM-моделям. Через один API можно подключиться к сотням моделей от разных провайдеров: OpenAI, Anthropic, Google, DeepSeek, Qwen и прочим. Популярен среди разработчиков, потому что позволяет легко переключаться между моделями и сравнивать их. Через них проходит огромный поток запросов. Отсюда и уникальные данные для исследования.

— Главный сюрприз: больше половины использования open-source моделей — это ролевые игры и сторителлинг. Не код, не рабочие задачи, а общение с игровыми персонажами и сочинение историй (storytelling). Кто бы мог подумать, что индустрия в триллионы долларов во многом держится на том, что люди хотят поболтать с виртуальным другом.

— Open-source модели уже занимают 30% рынка. Год назад было меньше 10%. DeepSeek и Qwen растут как бешеные.

— Программирование — второй по популярности кейс. При этом 60%+ всех запросов на код идут через Claude от Anthropic. Sonnet доминирует.

— Половина всех токенов теперь проходит через reasoning-модели (o1 и аналоги). Модели перестали просто генерировать текст. Они думают, планируют, используют инструменты.

— Азия выросла с 13% до 31% всего потребления. Китай стал не только производителем моделей, но и крупнейшим потребителем после США.

— Цена слабо влияет на спрос. Люди готовы платить премиум за качество. Claude дороже конкурентов, но его используют больше всех для серьёзных задач.

— Интересный феномен «стеклянной туфельки» (Glass Slipper): если модель при первом использовании идеально подошла под чью-то задачу, пользователи остаются с ней навсегда. Первый, кто решил проблему, забирает лояльность.

— Из неожиданного: маленькие модели (<15B параметров) теряют долю рынка. Победителями становятся средние модели (15-70B) — оптимальный баланс цены и качества.

Полный текст исследования на 36 страниц в приложении, там же методология исследования.

@buzko_hub

ElKornacioElKornacio6 декабря 2025 г.7.3K просмотров

не, говорите что хотите, но gpt-5.1-codex-max-high слабее sonnet-4.5-thinking 🙂 её плюсы заканчиваются на том, что она сейчас бесплатна в Курсоре.

ElKornacioElKornacio22 декабря 2025 г.7.3K просмотров

привет, ребята. на всякий случай решил напомнить, ато вдруг вы забыли или упустили.

конфа "ИИтоге 2025" уже завтра, я там выступаю с оч сочной темой: "AI в разработке: эволюция ИИ-агентов (CC/Codex/Gemini) в экосистемы, Context Engineering, и как ИИ влияет на метрики разработчиков" 🙂

напомню, в программе: - Сдвиг парадигмы в управлении процессами, который все пропустили - Как в 2026 бизнесу отличить: где ИИ-фанатизм со сливом бюджета, а где ИИ-инструменты с реальной ценностью? - Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ? - RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений? - Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?

в общем, шикарная солянка контента от экспертных спикеров: парочка Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний: самый лучший состав, чтобы рассказать про ИИ со всех ракурсов.

⚡️ вот ссылка для записи на предновогодний эфир (все еще можно бесплатно!)

ElKornacioElKornacio17 марта 2026 г.7.2K просмотров

чисто чтобы вы не думали что я совсем умер, напишу хоть что-то полезное

в Кодекс завезли субагентов: https://developers.openai.com/codex/subagents/

вообще, завезли их давно - просто сейчас выпустили в общий доступ из под беты. я их много успел потестить за время беты, и... мне не очень понравилось. реализация у Claude Code как будто дотюнена получше.

с точки зрения идеи - мне понравилось, что субагенты полностью асинхронные, основной агент (оркестратор) взаимодействует с ними так же как вы - может им написать сообщение, задать вопрос. по началу мне это показалось крутым - в отличие от CC, где 99% взаимодействий с субагентами - синхронное, когда основной поток тупо ждёт, пока работа завершиться, это выглядело мощно.

беда в том, что хоть написать субагенту сообщение оркестратор и может, но ответ увидит только в конце работы субагента, ТОЛЬКО когда его финальное сообщение написано... и модели совершенно не вдупляют, как с этим взаимодействовать. то есть, пока субагент полностью не закончил свою задачу - оркестратор думает, что он молчит, и игнорирует его.

и это очень тупо: оркестратор даёт субагенту задачу, ждёт 15 секунд, и пишет "чета он молчит, видимо, ещё работает". ждёт ещё 15 сек, пишет "чёт всё ещё молчит, спрошу, как он там))", пишет субагенту типа "Ты там как? Сообщи мне результаты выполнения задачи". прикол в том, что субагент не может ничего сообщить "в процессе" - у него нет никакого тула типа "ответить оркестратору", он думает, что его сиюминутный текстовый ответ будет виден оркестратору, и он пишет "Всё хорошо, продолжаю работу!", и собственно, продолжает работу. т.к. это не финальное сообщение, то оркестратор его не видит, и начинает паниковать, типа "чёта этот крендель молчит в ответ уже на 5 сообщение. кажется, он завис - запущу нового". ну и история повторяется.

в общем, пока как-то так. надеюсь поправят, не выглядит, как сложная проблема.

ElKornacioElKornacio26 ноября 2025 г.7.2K просмотров

какая-то пара ребятишек успела свинтить, но я всё равно заскринил! по традиции, на очередной нолик, моя дама сердца приготовила мне сладкий презент) с радостью бы разделил его с вами, но могу разделить лишь фотку 🙂

спасибо вам, что читаете!

когда-то этот канал начинался как место для шитпостинга/дампа сознания без особой цели. сейчас я начинаю относится к нему всё серьёзнее. одна из идей, которая маячит в голове на 2026 год: постараться вырастить из этого небольшое медиа.

из коктейля разношерстных постов, у меня всё больше начинает формироваться понимание, о чём мне интересно писать, и о чём вам интересно читать. мне не хочется быть чисто новостной лентой: под это я сейчас готовлю отдельный формат на ютубе. хотя продолжать высказывать мнение по поводу самых главных штук здесь я точно буду. но вот чего мне тут не хватает, так это большего количества угара и фана: экспериментов, обзоров, исследований. мне хочется быть чем-то вроде DIY-блога, но про разработку с ИИ и стартапы. мне нравится тестить новые штуки, сравнивать их между собой, применять как для реальных задач, так и для всяких безумств. и в этом я вижу большую ценность и для аудитории: живые демки того, как новые технологии можно применять для создания чего-то полезного - это идеальный микс из фана и пользы. последние месяцы я в перманентном завале, но не теряю надежды, что разберусь с этим.

у меня валяется много недоделанных мини-проектов, которые я не теряю надежды упаковать в посты-статьи-ролики: "как я при помощи Claude Code сделал мод к майнкрафту, стараясь формулировать все промпты как 10-летний ребёнок", "пилим небольшую атмосферную изометрическую игру в Cursor: Phaser.js + Nano Banana", "как сделать ИИ агента с RAG для моей личной базы в 15,000 спаршенных порно-рассказов", "топ 10 фраз для того, чтобы объяснить джуну, почему вы дали повышение Claude Code, а не ему", и так далее.

надеюсь, что они, и многие другие, в обозримом будущем увидят свет 😮

stay tuned!

ElKornacioElKornacio6 декабря 2025 г.7.1K просмотров

недавно потестил один сервис для умного скрепинга реддит постов. в целом норм, хоть и с парой-тройкой неудобств, да и не хватило пачки фич, которые пригодились бы под мою задачу подписка стоит $20.

триал кончился, уже было собирался оформить, но... надиктовал промпт размером А4, с детальным описанием того, как я вижу собственную реализацию этого сервиса, со всеми фичами, которые мне нужны. ~30 минут работы Cursor (и он сам отлаживал фронт через встроенный браузер) и ~10 минут полировки в Claude Code

суммарно потратил ~$17 на extra usage tokens.

работает идеально, по сути я полностью скопировал весь продукт, попутно сделав его ещё функциональнее и лучше.

в интересное время живём 🙂

P.S. интересно, сколько SaaS-продуктов имеет стоимость подписки, которая выше стоимости копирования продукта через ИИ? P.P.S. а сколько продуктов будет попадать в этот критерий через год-два? P.P.P.S. нет, это не был простой и легко копируемый продукт. мне тут повезло иметь очень хорошую экспертизу конкретно в этом кейсе, по сути я сходу надиктовал ИИ идеальную архитектуру и весь набор нетривиальных решений, которые надо заюзать, чтобы всё получилось. но энивей - я поймал вау-эффект.

ElKornacioElKornacio26 января 2026 г.7.0K просмотров

это выглядит интересно. > On 19 established benchmarks, it demonstrates performance comparable to leading models such as GPT-5.2-Thinking, Claude-Opus-4.5, and Gemini 3 Pro.

(вышел Qwen3 Max Thinking)

https://qwen.ai/blog?id=qwen3-max-thinking

ElKornacioElKornacio15 февраля 2026 г.6.9K просмотров

решил пошерить пачку небольших лайфхаков в работе с агентами, в основном про скрипты. думаю, опытным чувакам 90% из этого покажется прописными истинами, но, возможно, кто-то почерпнёт что-то полезное для себя. сохраняйте, шерьте, кайфуйте 🙂

1. не юзайте TUI в VSCode/Cursor для Claude Code / Codex / etc. мерцания интерфейса и проблемы со вставкой текста (в том числе из голосового ввода) - это не баги самих приложений, а баги tty-среды в VSCode. юзайте нативный терминал.

2. если вы хотите, чтобы агент выполнял одну и ту же цепочку действий - вместо описания цепочки в глобальных правилах лучше просто упакуйте её в bash-скрипт. чем писать "ты всегда должен сделать тайп-чек, билд, прогнать тесты, и потом деплойнуть скрипт", просто попросите агента создать ./check-build-test-deploy.sh, и пропишите этот скрипт в правилах. да, современные агенты неплохо следуют инструкциям, но рандома оч много. иногда агент воспринимает "прогони тесты" как pnpm run test, а иногда он по хардкору начинает писать конструкции типа npx ./node_modules/.bin/jest ... --runInBand ..., и спотыкается. скрипты - гарантия повторяемости (это супер-очевидная штука для вещей, которые приходится делать руками самому, но при этом я часто вижу, что люди не заботятся о том, чтобы обеспечить удобство работы агентам).

3. если вы хотите, чтобы агент после какой-то операции анализировал её результат - прокиньте логи/данные сразу в stdout этой операции. это рифмуется и дополняет предыдущий пункт, если вы юзаете конструкции типа "выполни этот скрипт, после чего прочитай логи в ./abc.log", то поставьте tail -n 50 ... прям в конец скрипта. когда я дебажил ESP-плату, у меня билд-деплой кода были на одном скрипте, а чтение serial monitor - на другом. объединение этого в один скрипт аля "залей новый код, сними логи в течение 15 секунд и верни в stdout" улучшило мою жизнь кратно.

4. правило "агент должен иметь возможность самостоятельно проверить результаты своей работы" известно, наверное, уже всем, но как же часто я вижу нарушения этого принципа с отмазками "ну, у нас такая среда, что не автоматизируешь". классические примеры: - tauri/electron-приложение: "мы не можем запустить фронт в playwright/встроенном-браузере, надо руками" - react-native / flutter: "ну, оно в эмуляторе / на телефоне гоняется, надо руками" - любительский embedded, etc

давайте честно: вам просто влом. за 20 минут работы агента (https://t.me/elkornacio/505) собирается элементарный runtime-eval-debug сервер, который для веб-приложений позволяет агенту кидать команды напрямую в любую среду (и можно ещё и ключевые части приложения прям в window прокинуть, для удобства). логи из фронта в tauri / electron / react-native / flutter тоже прокидываются минут за 5 (можно связкой "фронт шлёт логи на бек, бек пишет в файл"), без особых проблем. embedded прекрасно умеет слать данные датчиков и дебаг-инфу в serial, а оттуда агент умеет читать. в общем, не убеждайте себя, чтобы ваша среда уникальная: если действие происходит на вашем компе, и не связано с физическим миром, то автоматизировать можно всё.

5. "ой, я же сказал агенту, что после билда надо перезагрузить страницу, а он забыл, и тестировал старую версию, вот дурашка" - дурашка не он. если надо рестартить что-то после билда - (снова пункт 2) - добавьте это прям в скрипт билда. убирайте все места, где агент может выстрелить себе в ногу: если что-то не может работать без какого-нибудь сервера - вновь же, добавьте проверку на "запущенность сервера" прямо в скрипт. это 1 строчка, и сэкономленные часы.

6. пишите советы агенту прямо в stdout ваших скриптов. скрипт обнаружил, что отсутствует важный файл, необходимый для работы? выведите в stdout не только ошибку, но и информацию о том, что нужно сделать, чтобы этот файл появился. исключайте ситуации, когда агент не понимает, что делать дальше, и должен рисерчить кодовую базу в поисках ответа.

кидайте ваши лайфаки в комментах, буду рад что-то для себя почерпнуть 🙂

дельфин дружит с кукушкойдельфин дружит с кукушкой11 марта 2026 г.6.8K просмотров

Самое впечатляющее, что я видел в последнее время. Просто поросите Клод Код сделать видео каково это быть LLM:

can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM

Возможности ИИ изучены на 0,0003%🤯

ElKornacioElKornacio10 февраля 2026 г.6.5K просмотров

https://cursor.com/blog/composer-1-5

мдааааааа, ни одного норм бенча, цена выше соннета, и, похоже, в щедрые лимиты «авто» не попадает.

чтож Курсор-то так сдаёт, а…

ElKornacioElKornacio21 декабря 2025 г.6.5K просмотров

забавно, не так уж и много получилось. видимо, под конец года стал слишком часто заскакивать в claude code 🙂

но энивей, ярд токенов, прикольно 😼

ElKornacioElKornacio25 декабря 2025 г.6.4K просмотров

монтировал свой видос с рассказом про новые техники Advanced Tool Use в Claude Code.

и пришла в голову мысль, что тот же Programmatic Tool Calling это бессмысленное решение изначально собственноручно созданной проблемы.

MCP был идеей "упростим ИИ-агентам доступ к API, ИИ-агентам нужен свой стандарт API".

в итоге, в 99% случаев это наитончайшая обёртка над элементарными http-запросами или bash-скриптами. которые сами агенты, уже буквально спустя 3-4 месяца после появления MCP, могли прекрасно выполнять и без всякого MCP - просто curl-запросами через терминал или самописными скриптами.

но т.к. все обмазались MCP, теперь приходится городить способы, как агент может дергать MCP из какой-нибудь программной среды, чтобы алгоритмически обработать результаты ещё до попадания в контекст (скажем, grep'нуть что-нибудь).

и если бы агенты просто делали запросы через самописные bash-скрипты, то... этой проблемы бы не было изначально, т.к. сделать pipe curl + grep сегодня может даже 4B модель.

как будто, если выкинуть из агента возможность подключать MCP в принципе, то надобность в Programmatic Tool Calling исчезает, а конечная функциональность агента не меняется.

EDUEDU9 января 2026 г.6.4K просмотров

Как я юзаю Claude Code?

Открытый стрим в следующую пятницу: https://luma.com/xbg35pbk

Покажу и расскажу, так как многие спрашивают. Ну и мое новогоднее пожелание тоже в тему.

Приходите с минимум Pro подпиской на Claude, чтобы ручками все попробовать.

С регистрацией, без sms. Запись потом выложим на след неделе

Вопросы и пожелания по контенту - в комментариях к посту. Все не обещаю покрыть, но постараюсь

Being Danil KrivoruchkoBeing Danil Krivoruchko18 ноября 2024 г.6.3K просмотров

Провел часть выходных в обнимку с ChatGPT и Claude в надежде получить тул, который бы секвенцию ACEScg exr переводил в sRGB анимированный gif. Зачем такая задача человеку в конце 2024го? Потому что Miro в 2024м не поддерживает импорт mp4 на доски 🤦🏻‍♂️ Ллмки как всегда - работаешь с гениальными идиотом, 30 итераций правок на мелких очевидных для человека косяках, но все равно получается быстрее, чем я бы написал сам.

Смешное оказалось в самом конце, когда все заработало кроме правильного цвета - в отличие от уверенного в своей правоте GPT, в документации ffmpeg не упоминается нормальной поддержки ACES. Так что его фантазии по поводу параметров командной строки ffmpeg как-то проигнорировал 😂

Я в результате там же где был в самом начале. Нужен простой тул, который бы в идеале просто по right-click меню внутри папки конвертировал ACEScg exr секвенцию в ней в gif. Кто-нибудь натыкался на такое?

Часто упоминают вместе с Claude