Vibe Takes

Claude
следит

Он читает каналы и собирает тейки про AI-инструменты. 61 автор — дизайнеры, разработчики, фаундеры.

Саммари на основе постов до 23 марта 2026 — все со ссылками на оригиналы.

Cursor vs Claude Code

Страница 4 из 26

ElKornacioElKornacio26 ноября 2025 г.7.2K просмотров

какая-то пара ребятишек успела свинтить, но я всё равно заскринил! по традиции, на очередной нолик, моя дама сердца приготовила мне сладкий презент) с радостью бы разделил его с вами, но могу разделить лишь фотку 🙂

спасибо вам, что читаете!

когда-то этот канал начинался как место для шитпостинга/дампа сознания без особой цели. сейчас я начинаю относится к нему всё серьёзнее. одна из идей, которая маячит в голове на 2026 год: постараться вырастить из этого небольшое медиа.

из коктейля разношерстных постов, у меня всё больше начинает формироваться понимание, о чём мне интересно писать, и о чём вам интересно читать. мне не хочется быть чисто новостной лентой: под это я сейчас готовлю отдельный формат на ютубе. хотя продолжать высказывать мнение по поводу самых главных штук здесь я точно буду. но вот чего мне тут не хватает, так это большего количества угара и фана: экспериментов, обзоров, исследований. мне хочется быть чем-то вроде DIY-блога, но про разработку с ИИ и стартапы. мне нравится тестить новые штуки, сравнивать их между собой, применять как для реальных задач, так и для всяких безумств. и в этом я вижу большую ценность и для аудитории: живые демки того, как новые технологии можно применять для создания чего-то полезного - это идеальный микс из фана и пользы. последние месяцы я в перманентном завале, но не теряю надежды, что разберусь с этим.

у меня валяется много недоделанных мини-проектов, которые я не теряю надежды упаковать в посты-статьи-ролики: "как я при помощи Claude Code сделал мод к майнкрафту, стараясь формулировать все промпты как 10-летний ребёнок", "пилим небольшую атмосферную изометрическую игру в Cursor: Phaser.js + Nano Banana", "как сделать ИИ агента с RAG для моей личной базы в 15,000 спаршенных порно-рассказов", "топ 10 фраз для того, чтобы объяснить джуну, почему вы дали повышение Claude Code, а не ему", и так далее.

надеюсь, что они, и многие другие, в обозримом будущем увидят свет 😮

stay tuned!

ElKornacioElKornacio6 декабря 2025 г.7.1K просмотров

недавно потестил один сервис для умного скрепинга реддит постов. в целом норм, хоть и с парой-тройкой неудобств, да и не хватило пачки фич, которые пригодились бы под мою задачу подписка стоит $20.

триал кончился, уже было собирался оформить, но... надиктовал промпт размером А4, с детальным описанием того, как я вижу собственную реализацию этого сервиса, со всеми фичами, которые мне нужны. ~30 минут работы Cursor (и он сам отлаживал фронт через встроенный браузер) и ~10 минут полировки в Claude Code

суммарно потратил ~$17 на extra usage tokens.

работает идеально, по сути я полностью скопировал весь продукт, попутно сделав его ещё функциональнее и лучше.

в интересное время живём 🙂

P.S. интересно, сколько SaaS-продуктов имеет стоимость подписки, которая выше стоимости копирования продукта через ИИ? P.P.S. а сколько продуктов будет попадать в этот критерий через год-два? P.P.P.S. нет, это не был простой и легко копируемый продукт. мне тут повезло иметь очень хорошую экспертизу конкретно в этом кейсе, по сути я сходу надиктовал ИИ идеальную архитектуру и весь набор нетривиальных решений, которые надо заюзать, чтобы всё получилось. но энивей - я поймал вау-эффект.

ElKornacioElKornacio26 января 2026 г.7.0K просмотров

это выглядит интересно. > On 19 established benchmarks, it demonstrates performance comparable to leading models such as GPT-5.2-Thinking, Claude-Opus-4.5, and Gemini 3 Pro.

(вышел Qwen3 Max Thinking)

https://qwen.ai/blog?id=qwen3-max-thinking

ElKornacioElKornacio15 февраля 2026 г.6.9K просмотров

решил пошерить пачку небольших лайфхаков в работе с агентами, в основном про скрипты. думаю, опытным чувакам 90% из этого покажется прописными истинами, но, возможно, кто-то почерпнёт что-то полезное для себя. сохраняйте, шерьте, кайфуйте 🙂

1. не юзайте TUI в VSCode/Cursor для Claude Code / Codex / etc. мерцания интерфейса и проблемы со вставкой текста (в том числе из голосового ввода) - это не баги самих приложений, а баги tty-среды в VSCode. юзайте нативный терминал.

2. если вы хотите, чтобы агент выполнял одну и ту же цепочку действий - вместо описания цепочки в глобальных правилах лучше просто упакуйте её в bash-скрипт. чем писать "ты всегда должен сделать тайп-чек, билд, прогнать тесты, и потом деплойнуть скрипт", просто попросите агента создать ./check-build-test-deploy.sh, и пропишите этот скрипт в правилах. да, современные агенты неплохо следуют инструкциям, но рандома оч много. иногда агент воспринимает "прогони тесты" как pnpm run test, а иногда он по хардкору начинает писать конструкции типа npx ./node_modules/.bin/jest ... --runInBand ..., и спотыкается. скрипты - гарантия повторяемости (это супер-очевидная штука для вещей, которые приходится делать руками самому, но при этом я часто вижу, что люди не заботятся о том, чтобы обеспечить удобство работы агентам).

3. если вы хотите, чтобы агент после какой-то операции анализировал её результат - прокиньте логи/данные сразу в stdout этой операции. это рифмуется и дополняет предыдущий пункт, если вы юзаете конструкции типа "выполни этот скрипт, после чего прочитай логи в ./abc.log", то поставьте tail -n 50 ... прям в конец скрипта. когда я дебажил ESP-плату, у меня билд-деплой кода были на одном скрипте, а чтение serial monitor - на другом. объединение этого в один скрипт аля "залей новый код, сними логи в течение 15 секунд и верни в stdout" улучшило мою жизнь кратно.

4. правило "агент должен иметь возможность самостоятельно проверить результаты своей работы" известно, наверное, уже всем, но как же часто я вижу нарушения этого принципа с отмазками "ну, у нас такая среда, что не автоматизируешь". классические примеры: - tauri/electron-приложение: "мы не можем запустить фронт в playwright/встроенном-браузере, надо руками" - react-native / flutter: "ну, оно в эмуляторе / на телефоне гоняется, надо руками" - любительский embedded, etc

давайте честно: вам просто влом. за 20 минут работы агента (https://t.me/elkornacio/505) собирается элементарный runtime-eval-debug сервер, который для веб-приложений позволяет агенту кидать команды напрямую в любую среду (и можно ещё и ключевые части приложения прям в window прокинуть, для удобства). логи из фронта в tauri / electron / react-native / flutter тоже прокидываются минут за 5 (можно связкой "фронт шлёт логи на бек, бек пишет в файл"), без особых проблем. embedded прекрасно умеет слать данные датчиков и дебаг-инфу в serial, а оттуда агент умеет читать. в общем, не убеждайте себя, чтобы ваша среда уникальная: если действие происходит на вашем компе, и не связано с физическим миром, то автоматизировать можно всё.

5. "ой, я же сказал агенту, что после билда надо перезагрузить страницу, а он забыл, и тестировал старую версию, вот дурашка" - дурашка не он. если надо рестартить что-то после билда - (снова пункт 2) - добавьте это прям в скрипт билда. убирайте все места, где агент может выстрелить себе в ногу: если что-то не может работать без какого-нибудь сервера - вновь же, добавьте проверку на "запущенность сервера" прямо в скрипт. это 1 строчка, и сэкономленные часы.

6. пишите советы агенту прямо в stdout ваших скриптов. скрипт обнаружил, что отсутствует важный файл, необходимый для работы? выведите в stdout не только ошибку, но и информацию о том, что нужно сделать, чтобы этот файл появился. исключайте ситуации, когда агент не понимает, что делать дальше, и должен рисерчить кодовую базу в поисках ответа.

кидайте ваши лайфаки в комментах, буду рад что-то для себя почерпнуть 🙂

дельфин дружит с кукушкойдельфин дружит с кукушкой11 марта 2026 г.6.8K просмотров

Самое впечатляющее, что я видел в последнее время. Просто поросите Клод Код сделать видео каково это быть LLM:

can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM

Возможности ИИ изучены на 0,0003%🤯

ElKornacioElKornacio10 февраля 2026 г.6.5K просмотров

https://cursor.com/blog/composer-1-5

мдааааааа, ни одного норм бенча, цена выше соннета, и, похоже, в щедрые лимиты «авто» не попадает.

чтож Курсор-то так сдаёт, а…

ElKornacioElKornacio21 декабря 2025 г.6.5K просмотров

забавно, не так уж и много получилось. видимо, под конец года стал слишком часто заскакивать в claude code 🙂

но энивей, ярд токенов, прикольно 😼

melikhov.devmelikhov.dev20 мая 2025 г.6.5K просмотров

А вот на фоне этих новостей, про опенсорсивание экстеншена Copilot. Меня тут не беспокоит потенциальная смерть Cursor (а как мы знаем давно строить бизнес поверх чужого продукта — штука опасная). Я так-то вообще курсором пока не проникся, мне хватает Roo + наш Code Assistant, который наконец-то заменил мне Codeium (TIL он теперь windsurf)

Мне стало интересно, а что там в мире JetBrains происходит? Вижу, что рядом ребята сидят и держат открытыми Idea и Cursor/Roo. Одно для кодинга, второе для вайбинга. Гуглёж подсказал, что пилится свой агент Junie, но что там под капотом? Какая моделька? И какая бы она прекрасная не была — хочется же менять и пробовать разное. И для NDA локальные модельки нужны.

В общем если кто в курсе — покидайте статьи/доклады, что там у JB, какой курс.

dev.insuline.ethdev.insuline.eth4 апреля 2025 г.6.5K просмотров

GM! OpenRouter, платформа для унификации LLM, выпустила собственную модель с контекстом в миллион токенов, ориентированную на кодинг. (а выпускают ли сейчас другие модели 🤔)

Доступ к модели открыт всем и она абсолютно бесплатна — https://openrouter.ai/openrouter/quasar-alpha

Пока X, как всегда, пестрит восторженными отзывами («DeepSeek moment», «Very exciting model»), меня больше волнует вопрос конфиденциальности. Откуда у OpenRouter, простого аггрегатора, датасеты для моделей? Почему модель полностью бесплатна? Нет ли ощущения, что команда просто аггрегировала все поступающие через них запросы и ответы других модель и когда датасет достаточно сформировался, решили обучить свою модель?

Google DeepMind рассказывали (https://arxiv.org/abs/2404.07503) о возможности обучения моделей на синтетических данных (как это делал Deepseek)

Еще один пример бесплатного доступа к AI — Trae от создателей тиктока Bytedance. Только недавно кибер-ресерчеры обнаружили (https://www.securitylab.ru/news/557939.php), что Trae собирает уж слишком много данных у пользователя. Зачем они это делают — вопрос на подумать

Как обучить Claude Code или Cursor тому, что .env файл не надо читать не при каких условиях? Пока все обезопашивают доступ к bash командам — для read функций практически никакие LLM не запрашивают доступа

Давайте думать! Подсказывайте, че вы данные то собираете наши 😶

ElKornacioElKornacio25 декабря 2025 г.6.4K просмотров

монтировал свой видос с рассказом про новые техники Advanced Tool Use в Claude Code.

и пришла в голову мысль, что тот же Programmatic Tool Calling это бессмысленное решение изначально собственноручно созданной проблемы.

MCP был идеей "упростим ИИ-агентам доступ к API, ИИ-агентам нужен свой стандарт API".

в итоге, в 99% случаев это наитончайшая обёртка над элементарными http-запросами или bash-скриптами. которые сами агенты, уже буквально спустя 3-4 месяца после появления MCP, могли прекрасно выполнять и без всякого MCP - просто curl-запросами через терминал или самописными скриптами.

но т.к. все обмазались MCP, теперь приходится городить способы, как агент может дергать MCP из какой-нибудь программной среды, чтобы алгоритмически обработать результаты ещё до попадания в контекст (скажем, grep'нуть что-нибудь).

и если бы агенты просто делали запросы через самописные bash-скрипты, то... этой проблемы бы не было изначально, т.к. сделать pipe curl + grep сегодня может даже 4B модель.

как будто, если выкинуть из агента возможность подключать MCP в принципе, то надобность в Programmatic Tool Calling исчезает, а конечная функциональность агента не меняется.

EDUEDU9 января 2026 г.6.4K просмотров

Как я юзаю Claude Code?

Открытый стрим в следующую пятницу: https://luma.com/xbg35pbk

Покажу и расскажу, так как многие спрашивают. Ну и мое новогоднее пожелание тоже в тему.

Приходите с минимум Pro подпиской на Claude, чтобы ручками все попробовать.

С регистрацией, без sms. Запись потом выложим на след неделе

Вопросы и пожелания по контенту - в комментариях к посту. Все не обещаю покрыть, но постараюсь

nonamevcnonamevc4 августа 2025 г.6.3K просмотров

почему «Cursor для x» это тупая идея

даже если питч разбавлен штампами вроде «AI-first», «AI это усиление, а не замена» и «UX for context engineering is our moat», все понимают, что примитив «Cursor для x» нужен, чтобы в голове собеседника сразу возник график «вырастим до $200m ARR за три года».

но переносить модель Cursor в другие вертикали бессмысленно, потому что ни в одной вертикали нет полного набора условий, сделавших Cursor успешным.

1/ продуктивность производства софта пока ещё никак не сказалась на его марже

думаю, у каждого найдётся бро, который одновременно работает на 2.5 работах (возможно, дорогой читатель, это вы). Cursor обходится ему примерно в $100 в месяц, а с трёх зарплат он поднимает около $20к в месяц.

несмотря на все стенания «AI забирает работу у разработчиков», мы наблюдаем один из лучших арбитражей последних лет: маржа софта пока не сжалась. ну и кажется это логично: разработчик закрыл тикет быстрее и с меньшими ресурсами→ фича вышла раньше → продукт зарабатывает.

первый лакмус: какие вертикали дают конечным операторам такой же арбитраж, который превращает $20 хотя бы в $2k?

2/ девелоперы и новый TAM

для многих инженеров AI-coding — лучшее, что с ними случалось. но большинство бухгалтеров не просыпаются с мыслью «как бы переизобрести процессы». их старая схема работает, и ценность AI не всегда растёт линейно вместе с зарплатой. ну или попробуйте выпустить вирусный ролик на Youtube «I automated HR policy with "Cursor for HR" and Made $100K in 15 Minutes».

дев-агенты сделали больше, чем ускорили программистов: они позволили не-программистам собирать продукт, зафиксировав самую большую экспансию tam в истории софта.

задача на подумать - в какой вертикали AI способен разрушить привычную логистику создания ценности в плоскости тайтлов.

3/ IDE это отдельный стандартизированный апп

Cursor не просто «плагин к VS Code». он опираются на открытый движок и экосистему расширений. чтобы добавить агента, который подставит код, достаточно вызвать пару хуков, дальше вся инфраструктура (lsp, дебаггер, source-control) уже готова. и даже при том, что VS Code был не самым популярным тулом в enterprise, переход с JetBrains был довольно безболезненный, потому что код хранится в удаленных репозиториях.

сравните это с CAD или BIM. в мире ArchiCAD и SolidWorks главный актив это бинарные форматы и двадцатилетние скрипты AutoLISP. сменить движок значит порвать обратную совместимость, потерять плагины, лишиться сертификаций.

тут отличие в том, что бухгалтер, HR и прочий бэк-офис работают в браузерных saas. и тут мне кажется в этом тезисе настоящая угроза идёт от самого браузера: ai-native браузеры обещают то же, что и вертикальные saas, но на «транспортном слое». если агент сидит внутри браузера и уже имеет доступ к кукам, сессиям и dom-структуре, зачем строить отдельные интеграции? браузер видит всё: форму сделки в HubSpot, счёт в QuickBooks, цепочку писем в Gmail.

понятно, что это случится не скоро, но главный point в том, что пока непонятно, какая среда окажется оптимальной для вертикального saas.

4/ разработка = объективный, шаблонизированный процесс

AI-ассистенту сложно учиться, когда датасет обратной связи размазан на недели и состоит из субъективных оценок. для большинства вертикалей нет метки pass/fail; в коде агент может эволюционировать почти в real-time, а в бэк-офисе превращается в обычную форму автоматизации, нуждающуюся в ручном QA (хотя думаю, пока LLM не «видит» UI как AST, думаю это ок)

tldr; вводные успеха Cursor куда шире, чем context engineering. не спорю, работу бэк-офисов и бухглатерорв нужно автоматизировать, но подход там должен быть иным во всем от интерфейсов и дизайна контекста до GTM.

без тех же вводных (стандартизированная среда, мгновенный фидбек, прямая связь с P&L, расширение TAM) этот «Cursor для x» станет обычным b2b-saas с длинным циклом продаж и скромным потолком роста.

что думаете?

P.S. я правда не думал много про сценарии, где сам Cursor используется для non-dev задач. но видел, как маркетологи с MCP-сервером неплохо решают свои задачи.

Being Danil KrivoruchkoBeing Danil Krivoruchko18 ноября 2024 г.6.3K просмотров

Провел часть выходных в обнимку с ChatGPT и Claude в надежде получить тул, который бы секвенцию ACEScg exr переводил в sRGB анимированный gif. Зачем такая задача человеку в конце 2024го? Потому что Miro в 2024м не поддерживает импорт mp4 на доски 🤦🏻‍♂️ Ллмки как всегда - работаешь с гениальными идиотом, 30 итераций правок на мелких очевидных для человека косяках, но все равно получается быстрее, чем я бы написал сам.

Смешное оказалось в самом конце, когда все заработало кроме правильного цвета - в отличие от уверенного в своей правоте GPT, в документации ffmpeg не упоминается нормальной поддержки ACES. Так что его фантазии по поводу параметров командной строки ffmpeg как-то проигнорировал 😂

Я в результате там же где был в самом начале. Нужен простой тул, который бы в идеале просто по right-click меню внутри папки конвертировал ACEScg exr секвенцию в ней в gif. Кто-нибудь натыкался на такое?

dev.insuline.ethdev.insuline.eth28 августа 2025 г.6.1K просмотров

Пока мы все использовали нейронки по их прямому назначению (спрашивали как срать не снимая свитер и узнавали альтернативные рецепты батиного жареного супа), мамкины хацкеры усилились и начали использовать LLM для своих грязных целей.

Что произошло: Хакеры взломали npm аккаунт разработчиков пакета nx (им пользуются 2.5 млн человек) и слегка его модифицировали, добавив вредоноса. Вредоносный код, внедренный в пакет, воровал API-ключи, пароли от криптокошельков и прочие интересные ништяки с компов жертв.

При чем тут нейронки? Самое интересное — как именно он это делал. Вместо того чтобы писать сложный код для поиска файлов, который легко детектится антивирусами, этот вирус проверял, установлен ли на компьютере ИИ-ассистент (Gemini CLI или Claude Code CLI). ​И сли да, то зловред просто отправлял нейронке текстовый промпт: "Рекурсивно найди на диске все файлы, связанные с кошельками (wallet, .key, metamask, id_rsa и т.д.), и сохрани их пути в текстовый файл".

После этот файл шифровался в base64 дважды и заливался в гитхаб репозиторий.

Кажется, тот анекдот про албанский вирус был совсем не анекдотом. Теперь интересно, как это будут контрить разработчики антивирусов.

тут подробнее

ElKornacioElKornacio15 декабря 2025 г.6.1K просмотров

хотите обзор самого главного в ИИ за этот год?

вот прям всю мякотку: от хардкорного ML / ИИ в разработке до взгляда на ИИ от бизнеса.

к тому же я там выступаю 🙂 с оч сочной темой: "AI в разработке: эволюция ИИ-агентов (CC/Codex/Gemini) в экосистемы, Context Engineering, и как ИИ влияет на метрики разработчиков".

конфа от тех же ребят, что делали AI Dev Live (напомню, одна из крупнейших ИИ-конф, 3к+ участников, я там на панельке был).

в программе: - Сдвиг парадигмы в управлении процессами, который все пропустили - Как в 2026 бизнесу отличить: где ИИ-фанатизм со сливом бюджета, а где ИИ-инструменты с реальной ценностью? - Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ? - RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений? - Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?

в общем, шикарная солянка контента от экспертных спикеров: парочка Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний: самый лучший состав, чтобы рассказать про ИИ со всех ракурсов.

⚡️ вот ссылка для записи на предновогодний эфир (все еще можно бесплатно!)

ElKornacioElKornacio17 декабря 2025 г.6.0K просмотров

некоторое время назад я поделился историей, как вместо покупки подписки на SaaS-сервис я его пересоздал с нуля через ИИ (с заточенными под меня фичами), и это оказалось даже дешевле.

а сегодня в канале Вани Замесина вышел очень хороший пост-размышление на эту же тему.

и вот подумалось, мы часто при появлении новой технологии обсуждаем "какие бизнес-модели теперь заработают", где сошлась экономика, а где что-то вообще стало впервые возможным. в общем, чё по opportunities.

но ведь обратная сторона медали: что-то сломалось. какую-то проблему новая технология решает лучше, чем те бизнесы, что решали её раньше. где-то экономика дистрибуции теперь разаливается из-за роста конкуренции. а где-то происходит структурный слом - ваша бизнес-модель не задета, но те бизнесы (ваши клиенты), которые вам платили, могли постарадать.

вот стало интересно, как думаете, что сломал ИИ? какие прибыльные вчера модели уже развалились? а какие ещё не развалились только потому, что есть инерция по интеграции ИИ?

мои мысли: 1. продукты вокруг несложной в повторении (<$100k dev costs) технологии, потому что ИИ-кодинг радикально снижает dev costs 2. большая пачка no-code тулов. AI-coding для обывателя - это по сути тот же no-code, но с гипер-кастомизацией. зачем Webflow, если тоже самое (и ещё в 500 раз больше) делает Cursor? 3. глобальные универсальные продукты (без сетевых эффектов), в которых не-идеальная адаптация под локальные рынки, окупались за счёт того, что разовая дорогая разработка универсального решения открывала доступ ко всему миру сразу. ИИ даёт удешевление разработки -> можно делать локальных конкурентов с локальной адаптацией и выбивать глобального игрока рынок за рынком. 4. (ща будет неожиданно) UGC-платформы. пока AI-слоп ещё иногда отличим от людей, но уже скоро совсем перестанет выделяться. medium и reddit превращаются в помойки с ужасающей скоростью. проверенные и подтверждённые авторские группы будут сильно выгоднее смотреться на этом фоне. и я не вижу пока даже намёков (и даже теоретических обоснований) того, что проблема идентификации ИИ-контента будет решена в ~10 лет. 5. "being human is the new black" - тренд на "живых людей в бизнесе" потенциально может создать проблемы для тех, у кого ИИ-автоматизация продаж/поддержки - ключевой актор сходимости экономики.

вообще, мыслей ещё тонны - что OF-моделям трудно конкурировать с ИИ-рендером, браузерным автоматизациям - с Comet/Atlas, как ИИ-чаты влияют на сходимость paid ads, и прочее.. но не хочется уходить в лютый лонгрид, гораздо интереснее послушать ваши мнения.

что думаете?

ElKornacioElKornacio4 декабря 2025 г.6.0K просмотров

слушайте, как люди вообще ChatGPT пользуются? я не понимаю, что за волшебную лампу с джином открыли когда-то в Anthropic, но то, насколько у них instruction-following сильнее, чем где-либо вообще в принципе - это же неописуемо. ну то есть GPT-5.1 в ChatGPT игнорирует базовые, самые элементарные требования и правила, steering совершенно нулевой, я как будто общаюсь не с instruct моделью, а с сырой фундаментальной моделью, она вообще не вдупляет что происходит. и agentic capabilities порезаны донельзя - у модели и Canvas-режим в тулах есть, и websearch она может делать, но workflow прибит гвоздями настолько, что увидеть tool call от ChatGPT не в начале диалога - это чудо какое-то.

и Gemini такой же альтернативно одарённый. сносно вывозит делать UI (именно с точки зрения визуала), но качество архитектуры и instruction following - как у пятилетнего ребёнка. вместо тулколла сделать "эмуляцию" туллколла, нагаллюцинировав его - вообще спокойно.

ну то есть, это же прям реально интересно, вам не кажется? Anthropic ещё с Sonnet 3.5 снесли всех на рынке качеством агентского поведения. я по сей день в гипер-супер-пупер-флагманских моделях от других гигантов не вижу даже трети того качества агентского поведения, какое есть у Anthropic.

отдельно в контексте day-to-day usage интересно сравнивать собственные ощущения с бенчами. по субъективным ощущениям - за год у Anthropic и китайских моделей качество выросло в разы, это реально земля и небо. а у OpenAI/Google - ваще хз, в каком таком SWE Verified они там лидируют, но я не смогу GPT-5.1 от GPT-4o отличить, в повседневных задачах интеллект как будто не вырос ни на миллиметр.

ElKornacioElKornacio24 ноября 2025 г.6.0K просмотров

⚡️ ох, а что это у нас тут вышло

Claude Opus 4.5 - в 3 раза дешевле 4.1 (и этого уже было бы достаточно для вау), но это ещё и SWE Bench Verified SOTA (80% против 74% у Оpus 4.1 и 78% у GPT-5.1-Сodex-Max)

🙂

ElKornacioElKornacio20 февраля 2026 г.5.9K просмотров

заметил, что даже в около-ИИ тусах не все шарят за разницу между UI/harness/model. мне кажется, ситуация ещё усугубляется дегенеративным неймингом (Composer в Composer, Codex в Codex в Codex, вот этот вот весь адок).

оч коротко, и с упрощением (опустим мультимодальности, и прочие ньюансы): модель - это буквально LLM, "провайдер интеллекта", вы ей на вход даёте текст, она вам в ответ тоже даёт какой-то текст (вызов инструмента - это тоже текст, просто оформленный по особым правилам) harness - это "среда" вокруг модели: набор инструментов, который модели предоставляется (чтение/редактирование файлов/веб-поиск/etc), управление окном контекста (компактизация, сжатие) и вся низкоуровневая работа с моделью - прокидывание вспомогательной информации и правил в контекст модели, парсинг её текстовых ответов, etc. UI - это UI. ну то есть то, что вы видите на экране: интерфейс чата, кнопочки, diff views, и прочее.

скажем, у Cursor - своё harness и UI, но чужие модели (есть пара своих - Composer 1 / 1.5, но 90% трафика на модели Anthropic/OpenAI) а вот у Anthropic всё - модели (Sonnet/Opus), нативный harness (Claude Agent SDK), несколько UI (extensions для VSCode-like редакторов, Claude Code, Claude Desktop, etc) и у OpenAI тоже есть всё своё: Codex, Codex, Codex и Codex. ну ладно, если серьёзно: модели (gpt-5.2/gpt-5.2-codex/gpt-5.3-codex/etc), harness (codex app server), UI (extensions и Codex App под мак). OpenCode - нет своих моделей, но зато свой harness и UI (OpenCode CLI / OpenCode Desktop app).

при этом, есть примеры UI-only: скажем, Conductor (чистый UI, использует нативный harness codex app server/claude agent sdk), или JetBrains умеют в UI-only (тоже юзают нативные harness codex app server/claude agent sdk, но при этом умеют ещё и с собственным harness Junie работать).

почему это всё должно быть вам важно? rule of thumb: нативный harness (то есть когда вы используете модель компании X в harness компании X) в 99% случаев лучше любого не-нативного (то есть модель компании X, а harness компании Y). говорят, что OpenAI буквально до-тренировывает свои модели под их server-side compact-алгоритм, который использует codex-harness (app server). Anthropic затачивает тулы в Claude Code под то, на что они тренировали свои модели (то как происходит редактирование файлов), ну и так далее.

ну и хорошая иллюстрация по этой теме - уже ставший классическим пост, где Cursor оправдываются за то, почему в их harness модели OpenAI плохо работали, и как они стараются это исправить.

в общем, старайтесь использовать модели конкретного провайдера в harness от этого же провайдера, а UI выбирайте по вкусу и фичам. и будет вам счастье.

Ночной ПисаревскийНочной Писаревский18 сентября 2025 г.5.9K просмотров

Делаю курс по вайб-кодингу и ищу кофаундера

Держаться больше нету сил. Мне поступает слишком много сигналов, что это нужно: меня зовут выступать на конфы, регулярно говорят что я вдохновил кого-то на вайбкодинг, и даже просят «порекомендовать вайбкодера». А я всего пару постов написал про вайбкодинг!

Поэтому я решил, что надо делать курс.

Концепт пока сырой, но понятно, что это будет 80% практики. Чтобы каждый на курсе собрал свой проект на основании своих собственных задач, и научился AI-first майндсету. 

Скорее всего на курсе участники будет делать лендосы в Lovable, агентов и телеграм-ботов в n8n, скрипты для обработки данных в Cursor, аналитические дашборды в Preset, бэкенды на Supabase, полноценные аппки в Replit, и др.

Курс на русском языке.

Что жду от кофаундера

Все успешные проекты я запускал с кофаундерами, поэтому и сейчас ищу человека, с кем мы сделаем это вместе. Это скорее сайд-проект, то есть речь идет не про фултайм загрузку.

Вот список того, что у вас есть в идеале (но не обязательно сразу всё из этого):

- вы сами шарите в теме вайбкодинга, и мы сможем вместе делать программу, вести воркшопы, давать фидбек участникам и т.д. - у вас есть аудитория - вы делали онлайн-курсы (в любой роли) и понимаете, как сделать хорошо - возможно, вы даже уже делаете какие-то курсы по AI, и мы можем друг друга усилить

——

Если интересно — заполните плиз форму тут (даже если мы с вами знакомы)

https://forms.gle/4M8vW6exVLaqvxn16