Cursor vs Claude Code
Страница 3 из 26
Насколько всегда с отвращением пользовался Курсором, настолько же (но в положительную сторону) с удовольствием запускаю задачи в Claude Code. Сложно объяснить это ощущение, но как-то там более лампово и уютно что ли. И результат сильно лучше, особенно после нескольких итераций с ревью в Copilot.
А главное — нет причин менять IDE/редактор. С zed так вообще нативная интеграция из коробки, но всегда можно открыть терминал и сделать там всё.
Удивительно, что пока экстеншены затаскивали векторный поиск и наворачиваи UI, оказалось, что агенту достаточно grep для того, чтобы собрать хороший контекст и sed чтобы поправить код.
очень рандомный brain dump по наблюдениям за 2025 год в saas x ai
1. AI больше всего отразился на замещении разработчиков. занятость среди software developers 22–25 лет упала на ~20% с 2022 (Stanford Digital Economy Lab). атрибуция сложная правда, тут и post-ZIRP коррекция, но coding AI agents точно crossed the chasm.
косвенный прокси - отчет Menlo Ventures: корпоративный AI spending вырос до $7.3B в 2025 (+4.1x YoY). кодинг это $4B, это 55% всего departmental spend. остальное: IT (10%), marketing (9%), customer success (9%), design (7%), HR (5%).
2. больше задач программистов из 2022 берут не-программисты. уже видел как CPA строят AI-powered tax filing без бэкграунда в коде или как HVAC-компания пилит свою CRM.
когда стоимость создания близка к нулю, стоимость поддержки теряет значение.
поэтому имхо velocity is your moat bs. ты не обгонишь цикл обратной связи пользователя, который решает свою проблему сам.
3. vibe-coding убил low-code никто почему-то не обсуждает, какое стремительное замещение / disruption категории произошло за 12 месяцев. Webflow, Retool, Airtable имхо рип. обещали демократизацию, но реальность это lock-in и ограниченная кастомизация. Lovable, Bolt, Replit Agent за 12 месяцев набрали $36B+ combined valuation. Lovable: с $7M до $84M ARR за 6 месяцев. Replit: с $16M до $252M ARR за год (+15.8x). «старый» low-code рынок — $29B. vibe-coding съел его на глазах.
4. AI-native application layer быстрее забирает рынок у инкамбентов и растут лучше чем AI-native инфра. стартапы забрали 63% рынка AI-приложений vs 36% год назад. application layer = $19B из $37B общего spend. в кодинге стартапы = 71%, в sales = 78%, в finance/ops = 91%. инкамбенты держатся только в инфраструктуре (56%) — Databricks, Snowflake, MongoDB выигрывают за счёт интеграций и доверия.
5. бизнес по майнингу вертикальных данных и продаже норм. все growth-stage вертикальные ent компании охотятся за владельцы данных, которые решают, кому давать эксклюзивный доступ.
пример: Harvey в 2024 пытался купить vLex (поставщик юридических данных), не договорились, в итоге сделали партнёрство с LexisNexis. vLex достался Clio, другой LegalTech-компании.
чего ожидать: консолидация среди поставщиков данных;
вынужденные сделки для AI-стартапов, потерявших доступ к данным;
вертикальные AI-компании начнут объединяться ради общего пула прав на данные.
6. сервис vs продукт - граница размывается инструменты настолько глубоко встраиваются в доменные workflows, что начинают напоминать intelligent service providers. сейчас агенты уже умные, но пользователи ещё требуют внедрение с полным сопровождением. инструменты уже умеют больше, чем юзеры способны освоить. в некоторых индустриях это видно сильнее. AI SecOps стартапы (Aegis AI, Litt Security) называют себя "AI agent companies", но по сути это аутсорсинг compliance officer. AI SEO тулы то же самое.
консалтинг подтверждает тренд. Accenture, Deloitte, EY растут 11–12% в год McKinsey, BCG, Bain растут 5–6%. хотя их только ленивый не закапывал в 2023. execution-first с AI интеграцией побеждает стратегический консалтинг.
forward deployed engineers который хайпует в долине (Anthropic с Accenture анонсировали 300 FDE; и 470к лицензий с Deloiite) Accenture берёт на себя «налог на ИИ-неграмотность» от лица корпораций. стартапы не могут с этим конкурировать, потому что каждому стартапу приходится выращивать клиента с нуля. большинству клиентов white-glove не нужен, они хотят просто работающий продукт.
капиталоёмкость растёт не потому что продукт дорогой, а потому что сервисная обёртка обязательна. доля рынка коррелирует с объёмом привлечённого капитала, не с качеством модели. вертикальный AI масштабируется через людей и эксклюзивные данные, не через вирусный рост.
то есть парадокс с первый тейком - нанимать людей надо больше.
Если первые впечатления от того же Cursor были отвратительными, то сейчас он уже как-то подуспокоился в своём стремлении делать YOLO и может предоставить сравнимый с Roo опыт постепенного продвижения по задаче. При этом, конечно, в более приятном интерфейсе (те же диффы изменений выглядят гораздо наглядней, чем в Roo).
И значительный плюс, что можно вносить правки в диффы налету — Roo от такого с ума сходит и пытается вернуть файл в то состояние, в котором он его запомнил. Понятное ограничение экстеншена, но всё же. Нам же код писать, а не экстеншены прощать.
В целом и там, и там можно работать с одинаковой эффективностью. А вот вопрос стоимости сложный, понятно, что в чистом виде Cursor будет дешевле, но кто ж знает, к каким моделям у вас есть доступ? У меня вот Roo смотрит в «бесплатный» развёрнутый внутри DeepSeek и платный Claude. Щёлкаю под задачу и наличие денег на счету.
Сама по себе работа в паре с AI (то, что пытались зафорсить как DeepCoding в противовес VibeCoding, но, кажется, не прижилось) неплохо так прокачивает скиллы код-ревью. Я (как типичный IC) редко работаю над кодом в команде, и вот тут второй пилот вернул забытые ощущения и позволяет держать ритм.
Продолжаю радоваться, что дожил до такого.
я знаю, что уже нахваливал gpt-5.2-codex-xhigh/codex-cli выше, но накину ещё: это единственная связка, которая сейчас умеет сама идентифицировать зоны рефакторинга, предлагать действительно адекватные рефакторинги и изоляции сущностей, с семантическим разделением, и так далее, и полностью автономно выполнять.
я прям смотрю на свои прошлые workflow вокруг opus, которые я юзал для plan-implement-refactor, и мне прям угарно от того, сколько у меня там всяких guardrails: "проверь, не нарушил ли ты А", "проверь, соответствует ли это паттерну Б", "убедись, что С", и так далее, ито они не всегда спасали. здесь (gpt-5.2) в 99% процентов случаев: 1. "вот проблемные зоны, собери план рефакторинга" 2. вношу 2-3 правки в план, уточняю бизнес-логику 3. "имплементируй"
сейчас постараюсь сделать аккуратное утверждение, но тем не менее: кажется, наклёвывается scaling law в ИИ-кодинге. все предыдущие полностью автономные ИИ-кодинг решения не способны в самолечение технического долга, как не обмазывайся промптами, через некоторое время наступает конец. надо либо очень тщательно дробить проект, либо, если ты сам разраб, обязательно вносить архитектурные коррективы.
gpt-5.2-codex заставляет меня верить в возможность фактически бесконечной разработки проекта только через ИИ-кодинг и без заглядывания в код - он умеет (если попросить) идентифицировать зоны с тех. долгом, и самостоятельно их чинить так, что проект остаётся расширяем, поддерживаем и работоспособен.
я не понимаю, что иногда курят авторы доков по AI тулам, но решил не проходить мимо конкретно этой штуки, т.к. в ЛС уже раз 5 спросили про одну и ту же проблему
я не знаю, кому пришло в голову написать в примерах в официальной спеке и на сайте Курсора, что в теле markdown SKILL.md есть раздел "When to use this skill".
НЕТ, этот раздел не работает. НЕТ, агент не принимает решение о загрузке скилла на основе этого раздела. НЕТ, у агента в контексте вообще нет содержимого скилла ДО того, как скилл был загружен.
_единственное_ место, где вы даёте агенту анонс, "что это за скилл и когда его надо загружать" - это поле description вверху SKILL.md (во frontmatter'е).
ещё раз: содержимое скилла читается уже постфактум, когда агент УЖЕ принял решение, что хочет его загрузить. зачем внутри скилла писать раздел "When to use this skill" - загадка.
Личные итоги года по сравнению с 2024:
- много работал, интересно и в основном в кайф, но по итогам почти безрезультатно, back to square one - штош, не прокнуло. Очень благодарен всем соучастникам, вы классные; - перешел от старого доброго ML к agentic AI шаманству. В целом бодро, но немного ностальгирую по временам, когда модели можно было учить (нытье по этому поводу - раз, два); - незапланированно оказался в бигтехе с его плюсами и минусами; - был соавтором статьи, которую не приняли на воркшоп NeurIPS, зато после доработки приняли на SANER; - почти перестал писать код руками и сдался вайбкодингу, claude code - однозначно инструмент года; - сделал слегка виральный brainrot пет-проект @ScratchAuthorEgoBot, там все еще теплится жизнь; - подарил сколько-то экземпляров книги с автографами, каждая подпись - лютый кринж; - наконец-то выучил и сдал польский на B1, практически сразу после экзамена половину забыл; - ощутил два землетрясения за три дня (одно на семерку), интересный опыт для жителя равнины; - впервые оказавшись на горнолыжном курорте, свалился с T-bar подъемника.
С наступающим, дорогие читатели! 🥂
А вот и запись стрима про то, как я юзаю Claude Code
В этом видео: 00:00 - Введение 01:58 - Как использовать Claude Code 08:10 - Почему важен контекст 11:42 - Подключаем календарь 27:35 - CLAUDE.md 32:56 - Возможности MCP серверов 40:18 - Автоматизация повторяющихся сценариев 46:20 - Skills: что такое и как использовать 53:30 - Skills: создание лендингов 01:04:50 - Skills: делаем презентацию 01:15:49 - AI Personal OS 01:18:41 - Удаленный доступ с Happy Server 01:23:32 - Claude reflect: определяем кандидатов на автоматизацию 01:27:44 - Выводы и ответы на вопросы
https://youtu.be/AL81s5BPwXo
Все побежали и мы побежали
Ну как, выбор между Roo и Cline сделали? На Claude, небось? Мемори банки собрали? В своей продукт добавили агента? А моделька в продукте у вас какая — Qwen или DeepSeek? Как так нет локальной модели, а куда вы будете грузить пользовательские данные? А как тюнили под задачи, RAG? А MCP-сервер уже запилили? В опенсорс его закинули?
Что ж так быстро-то всё меняется, выдохнуть некогда. Архитектуркой бы позаниматься, долги позакрывать. Но некогда. Рынок требует AI. Надо пережить эту волну, но кто бы знал, какая будет следующая.
RAG на коленке
Решил тут на днях собрать пруф оф концепт чат бота по документации внутреннего проекта. Раз проект внутренний, то никакая LLM про его документацию не знает и, тем более, сходить по сети за ней не может. А значит нужен RAG. Вот тут можете можете почитать, что это такое. TLDR — смотрим, что пользователь спросил, находим нужные разделы в документации и подмешиваем в промт. Дальше моделька сама справится.
Обычно для поиска используют векторы. Векторный поиск позволяет бодро искать фрагменты совпадающие с запросом по смыслу, а не просто по совпадению слов. Для векторизации нужны нейронки, которые умеют делать эмбеддинг — преобразовывать текст в вектор. Берём наши доки, бьём на чанки, вычисляем векторы, сохраняем. Приходит запрос пользователя — делаем из него вектор и вычисляем косинус угла между запросом и имеющимися данными в бд. Чем ближе косинус к единице, тем ближе запрос пользователя к нужному фрагменту документации.
Результат офигенный конечно. Но вот зараза, у меня нет под рукой нейронок для эмбеддинга. Во внешний мир ходить не хочу, проект внутренний. Что же делать, как показать пруф оф концепт? Собираем с Клодом веб-скрейпер на плейрайте, дербаним доку в JSON, кормим этот JSON приложению на ноде, обслуживающему чат. Теперь на каждый запрос пользователя выбираем слова подлинней, лезем в JSON и находим совпадения (ахах, да, можно было бы и морфологию прикрутить, но некогда, работа не ждёт). Собираем промпт по совпадениям и закидываем в LLM вместе с запросом пользователя. И оно работает. Да, неоптимально, чертовски неоптимально. Но для PoC за глаза хватило.
btw, писал пару недель назад про то, что в Cursor будет debug-режим. и вот, его завезли в паблик релиз: https://cursor.com/changelog
ещё из интересного - теперь после работы пачки параллельных агентов, в конце добавляет коммент, какой агент по мнению Курсора лучше всех справился с задачей (aka "agent judgement"). вполне приятная фича, но не очень понятный юзкейс
чтоб вы понимали, я отчаялся настолько, что пишу статьи, то есть просто текст ✨В КУРСОРЕ ✨. даже сделал себе отдельный суперкодовский кастом-мод с системным промптом на 3 листа А4, лол, который считает себя копирайтером по конкретной теме.
потому что там я раз в 5 лучше результат получаю, чем в ChatGPT / AI Studio, при использовании тех же моделей.
я кекал с историй, что некоторые ребята Курсор используют как универсальную агентскую среду, без привязки к задачам разработки, а вот теперь что-то даже и не смешно. мб tavily туда через mcp затащить, и вообще забыть про chatgpt навсегда
P.S. нет, ну вот прям серьёзно - тулинг дико решает. ChatGPT запрос "отредактируй только второй абзац, не трогай первый" - не может решить, переделывает текст в первом. а в Cursor модель просто дёргает тул search_replace (дефолтный тул для редактирования кода в Курсоре) - и идеально исправляет только то, что надо, ещё и токены экономит. кайф.
Чтобы гора сгенеренного кода меня не поглотила, к процессу вайбкодинга AI assisted разработки нужно было добавить и AI-based ревью. Но ожидаемо Клод слишком любит код, написанный Клодом, и мышей ловил недостаточно.
Так я начал использовать opencode с Gemini для ревью. Сначала все было хорошо, Gemini - такая странная модель, которую нельзя подпускать к написанию кода (мой любимый комментарий про это), но критиковать умеет по делу. Opencode был всем неплох, но жрал тонны памяти и периодически зависал в неинтерактивном режиме (в т.ч. на CI). Короче, not invented here синдром назревал.
https://github.com/arsenyinfo/nitpicker - just another code review agent. Быстрый, маленький, умеет в LLM council (хоть где-то пригодится подписка на z.ai и minimax), и за счет этого ловит довольно много ошибок (хотя и ценой ложных срабатываний).
а вот и релиз бенчей, и карточка модели подъехали (GLM-5).
в целом - сравнима с Opus 4.5 (не путать с 4.6). где-то чуть ниже, где-то чуть выше, в целом - рядышком.
btw, Anthropic заопенсорсила Skills: https://agentskills.io/home
... правда, на момент "опенсорсинга" его уже итак поддержали крупные вендоры ...
... да и опенсорсить там, если честно, +- нечего... по сути очень тонкая документация ...
... не говоря уже о том, что context-based retrieval для rules в Cursor был завезён год назад, и де-факто это точно такая же механика, что и у Skills ...
--
вообще вокруг Claude Code сформировался небольшой странный культ, когда завезённые туда фичи воспринимаются как супер-инновация, когда другие тулы поддерживают их уже сто лет как. главная, и самая сильная инновация Claude Code - очень крутой механизм субагентов, который и по сей день в настолько же удобном виде мало кто повторил (хотя Cursor вон в бетку недавно завезли, но пока сыровато). но когда вижу в инете, как писаются кипятком от того, что в CC добавили conditional rules по файловым маскам.. или что другие conditional rules, по которым агент сам решает грузить их или нет на основе поля description, называют Skill и позиционируют как инновацию, это очень удивляет 🙂
Вышло масштабное исследование от a16z и OpenRouter про то, как люди реально используют LLM. Проанализировали 100 триллионов токенов* за год.
* 1 токен ≈ 4 символа или ≈ 0,75 слова. То есть 100 токенов — это примерно 75 слов, а 100 трлн токенов — 75 трлн слов. В Библии ≈ 783 000 слов, то есть в исследовании OpenRouter проанализировали массив из 100 млн Библий.
OpenRouter — это агрегатор доступа к LLM-моделям. Через один API можно подключиться к сотням моделей от разных провайдеров: OpenAI, Anthropic, Google, DeepSeek, Qwen и прочим. Популярен среди разработчиков, потому что позволяет легко переключаться между моделями и сравнивать их. Через них проходит огромный поток запросов. Отсюда и уникальные данные для исследования.
— Главный сюрприз: больше половины использования open-source моделей — это ролевые игры и сторителлинг. Не код, не рабочие задачи, а общение с игровыми персонажами и сочинение историй (storytelling). Кто бы мог подумать, что индустрия в триллионы долларов во многом держится на том, что люди хотят поболтать с виртуальным другом.
— Open-source модели уже занимают 30% рынка. Год назад было меньше 10%. DeepSeek и Qwen растут как бешеные.
— Программирование — второй по популярности кейс. При этом 60%+ всех запросов на код идут через Claude от Anthropic. Sonnet доминирует.
— Половина всех токенов теперь проходит через reasoning-модели (o1 и аналоги). Модели перестали просто генерировать текст. Они думают, планируют, используют инструменты.
— Азия выросла с 13% до 31% всего потребления. Китай стал не только производителем моделей, но и крупнейшим потребителем после США.
— Цена слабо влияет на спрос. Люди готовы платить премиум за качество. Claude дороже конкурентов, но его используют больше всех для серьёзных задач.
— Интересный феномен «стеклянной туфельки» (Glass Slipper): если модель при первом использовании идеально подошла под чью-то задачу, пользователи остаются с ней навсегда. Первый, кто решил проблему, забирает лояльность.
— Из неожиданного: маленькие модели (<15B параметров) теряют долю рынка. Победителями становятся средние модели (15-70B) — оптимальный баланс цены и качества.
Полный текст исследования на 36 страниц в приложении, там же методология исследования.
@buzko_hub
не, говорите что хотите, но gpt-5.1-codex-max-high слабее sonnet-4.5-thinking 🙂 её плюсы заканчиваются на том, что она сейчас бесплатна в Курсоре.
привет, ребята. на всякий случай решил напомнить, ато вдруг вы забыли или упустили.
конфа "ИИтоге 2025" уже завтра, я там выступаю с оч сочной темой: "AI в разработке: эволюция ИИ-агентов (CC/Codex/Gemini) в экосистемы, Context Engineering, и как ИИ влияет на метрики разработчиков" 🙂
напомню, в программе: - Сдвиг парадигмы в управлении процессами, который все пропустили - Как в 2026 бизнесу отличить: где ИИ-фанатизм со сливом бюджета, а где ИИ-инструменты с реальной ценностью? - Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ? - RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений? - Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?
в общем, шикарная солянка контента от экспертных спикеров: парочка Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний: самый лучший состав, чтобы рассказать про ИИ со всех ракурсов.
⚡️ вот ссылка для записи на предновогодний эфир (все еще можно бесплатно!)
btw, если вы следите за проектом 21st.dev (релевантная история, UI-building AI-agent, хотя многие этот проект знают как супер-либу сочных React-компонентов), то вам возможно будет интересно узнать, что его автор телеграм-канал на русском ведёт, @serafimlivestream 😼 за этим проектом тоже очень интересно следить.
но вообще, я чувствую strong vibes of AI-frontend в начале 2026. Antigravity с кучей фич под фронт, Cursor с мега-апдейтом, интересно, какой будет ответ Anthropic?
https://cursor.com/blog/browser-visual-editor
кажется, у Figma сегодня тяжёлый день. они шли в эту же историю, но с противоположенного конца
чисто чтобы вы не думали что я совсем умер, напишу хоть что-то полезное
в Кодекс завезли субагентов: https://developers.openai.com/codex/subagents/
вообще, завезли их давно - просто сейчас выпустили в общий доступ из под беты. я их много успел потестить за время беты, и... мне не очень понравилось. реализация у Claude Code как будто дотюнена получше.
с точки зрения идеи - мне понравилось, что субагенты полностью асинхронные, основной агент (оркестратор) взаимодействует с ними так же как вы - может им написать сообщение, задать вопрос. по началу мне это показалось крутым - в отличие от CC, где 99% взаимодействий с субагентами - синхронное, когда основной поток тупо ждёт, пока работа завершиться, это выглядело мощно.
беда в том, что хоть написать субагенту сообщение оркестратор и может, но ответ увидит только в конце работы субагента, ТОЛЬКО когда его финальное сообщение написано... и модели совершенно не вдупляют, как с этим взаимодействовать. то есть, пока субагент полностью не закончил свою задачу - оркестратор думает, что он молчит, и игнорирует его.
и это очень тупо: оркестратор даёт субагенту задачу, ждёт 15 секунд, и пишет "чета он молчит, видимо, ещё работает". ждёт ещё 15 сек, пишет "чёт всё ещё молчит, спрошу, как он там))", пишет субагенту типа "Ты там как? Сообщи мне результаты выполнения задачи". прикол в том, что субагент не может ничего сообщить "в процессе" - у него нет никакого тула типа "ответить оркестратору", он думает, что его сиюминутный текстовый ответ будет виден оркестратору, и он пишет "Всё хорошо, продолжаю работу!", и собственно, продолжает работу. т.к. это не финальное сообщение, то оркестратор его не видит, и начинает паниковать, типа "чёта этот крендель молчит в ответ уже на 5 сообщение. кажется, он завис - запущу нового". ну и история повторяется.
в общем, пока как-то так. надеюсь поправят, не выглядит, как сложная проблема.