Cursor vs Claude Code
Страница 12 из 26
📈 4% всех публичных коммитов на GitHub сейчас делает Claude Code
SemiAnalysis выпустили анализ роста Claude Code. Цифры впечатляют:
- 135K+ коммитов в день - Рост в 42,896 раз за 13 месяцев - Прогноз: 20%+ всех коммитов к концу 2026
Что говорят разработчики: - Andrej Karpathy замечает атрофию навыков ручного кодинга - Malte Ubl (CTO Vercel): "Моя новая основная работа - направлять AI исправления" - Boris Cherny: "Практически 100% нашего кода пишет Claude Code"
Еще интересное из отчета: Anthropic теперь добавляет больше revenue каждый месяц чем OpenAI. Рост ограничен только доступностью compute.
🔗 newsletter.semianalysis.com/p/claude-code-is-the-inflection-point
#claudecode #claude #anthropic #github #ai
————————— Мысли Рвачева —————————
🏹 КАК НЕ НАДО ВАЙБКОДИТЬ (стрим на ютьюбе)
на стриме: - gemini flash 3 - glm 4.7 - notebook lm - claude code superpowers
https://youtube.com/live/IyPI5VBecUw?feature=share
gm! Cursor на прошлой неделе выкатил "Composer 2" — их in-house модель. Блог-пост: "continued pretraining + scaled reinforcement learning". Бенчмарки против Opus 4.6 и GPT-5.4. На основании этого поднимают раунд на $50B.
Разработчик из Kimi перехватил API-ответ. Model ID: kimi-k2p5-rl-0317-s515-fast. Даже не переименовали. Head of pretraining из Moonshot прогнал тест токенизатора — идентичен Kimi K2.5. Публично тегнул кофаундера Cursor: "почему вы не соблюдаете нашу лицензию?"
Kimi K2.5 — опенсорсная модель от Moonshot AI. Триллион параметров, 15 триллионов токенов. Условие лицензии одно: если зарабатываешь больше определенных значений — укажи Kimi K2.5. Cursor взял модель, прикрутил RL на код-тасках и зашипил как свою. За пару недель до этого Kimi K2.5 висел в их UI как бесплатная модель. Потом исчез и появилась уже "собственная разработка". Кажется, кто-то просто дообучает модели на своих юзерах 🤔
Три поста от сотрудников Moonshot с подтверждениями удалили в течение нескольких часов. Вероятно, решили идти через юристов.
Moonshot: оценка $4.3B, свои опенсорс модели. Cursor: оценка $50B, взяли чужую и не переименовали model ID.
Маск уже подтверждает — "Yeah, it's Kimi 2.5".
Очередной YC playbook?
Claude Cowork: Dispatch
Попутно сделали своего конкурента OpenClaw в Claude Desktop - можно удалённо управлять агентом с десктопными MCP, файлами, тулами, скиллами
Пока видимо живёт строго в Desktop приложении (а не на сервере). Возможно всё-таки Mac Mini придётся брать 😑
https://support.claude.com/en/articles/13947068-assign-tasks-to-claude-from-anywhere-in-cowork
YCombinator опубликовал новый список запросов к стартапам на эту весну 2026. Самые интересные на мой взгляд:
• Cursor для продактов. Система сама анализирует интервью с пользователями, метрики и выдает готовые задачи в разработку.
• AI-Native Hedge Funds. Фонды с роем агентов, которые сами читают отчеты компаний и находят скрытые тренды на рынке.
• AI-Native Agencies. Вместо продажи софта — продажа готового результата (дизайна, кода) с огромной маржой за счет AI.
• AI Guidance for Physical Work. Носимая камера с AI, которая подсказывает сантехнику или механику, что именно крутить в реальном времени.
ycombinator.com/rfs
как я подхожу к AI SEO
контекст: мы делаем Extruct, deep research агенты для поиска и исследования компаний. не надо быть гением, чтобы понять, что сейчас большую часть ресёрча компаний люди делают в чатботах. "расскажи про компанию X", "кто их конкуренты", "какой у них funding" это всё уже идёт в Claude и ChatGPT, Perplexity.
поэтому логично было подумать, как туда пробиться и забирать траффик отткда. самое простое, что сделал: начал публично выкладывать все data points, которые мы наресёрчили агенты. генерю страницы прямо в Cursor, подключаюсь к БД, делаю постпроцессинг, массово публикую. сейчас порядка 5к страниц под long-tail запросы а-ля lindy funding, s25 batch (вторая позиция после официальной директории btw) или top b2b startups in Spain.
organic search сейчас у нас ~20%. другой вопрос с конвертацией, но top of the funnel это генерит.
теперь думаю, как это усилить. посмотрел штук 20 тулов для AI visibility. паттерн один: topic modeling → генерация промптов → пуш в LLM-чатботы. у меня ощущение, что часть из них просто дёргает API веб-поиска, а не эмулирует реальные пользовательские сессии. а разница есть: API ≠ консьюмерский продукт.
в таком сетапе выглядит не супер полезно. главная проблема: ни один тул не показывает объём запросов по промпту. без этого ты оптимизируешь под фразы, которые никто не вводит. понятно, что это непросто достать даже самим вендорам. а в LLM-поиске long tail ещё тяжелее, уникальных запросов больше, агрегировать клики по ним нельзя.
с другой стороны, я на это смотрю больше как на упражнение по оттачиванию позиционирования. полезно думать, как генерится интент на твой продукт или проблему. это может быть хорошим циклом, который связывает лендинги, копирайтинг и сам продукт особенно если ты ещё до PMF.
если копнуть в теорию, то ни у кого пока нет своего полноценного индекса. это general meta-search wrapper + LLM reasoning. да, есть кроулеры, есть оптимизации с кэшированием и свой re-ranking, но базово весь поиск всё равно лежит на поисковых движках. LLM разбивает твой промпт на 2-5 подзапросов и шлёт их в Google, Bing или Brave. потом ходит по топ-ссылкам, чанкует контент, цитирует то, что релевантно.
пример: запрос "SEO agency NYC" в Perplexity превращается в три отдельных Google-запроса — "seo agencies nyc", "top seo companies new york city", "best seo firms ny".
вся эта возня с visibility идёт от того, как происходит ранжирование внутри RAG.
но базовые принципы SEO никуда не делись. E-E-A-T — доверие к домену, авторитетность автора, бэклинки, директори, отзовики. говорят, что UGC площадки с высокой цитируемостью положительно влияют на AI SEO: Reddit, G2, Capterra, Trustpilot. форумы и отзывы сейчас весят для brand mentions больше, чем в классическом SEO.
что подметил из рисерча: 1. читаемость важна на уровне чанка. в ответ LLM попадают 1-2 чанка, а не весь документ. поэтому у каждой статьи должен быть чёткий TL;DR в начале. 2. каждый inference немного разный. нет детерминированного "ты на 4-м месте по этому запросу" - позиция плавает. 3. онлайн-сигналов (кликов) в RAG-поиске меньше, но есть другой сигнал: какие документы LLM процитировала, а какие проигнорировала. то есть feedback loop дольше, надо это учитывать, когда катишь конетнт. 4. тректинг атрибуции через прямые заходы делать бесполезно. влияние будет заметно только в direct траффике. лучше это распрашивать в онбординге.
что ещё делаю: 1. пишу по 3 поста в день на Reddit с мягким упоминанием бренда. руками, не автоматизирую. 2. смотрю, на что LLM ссылается в web search, это единственный способ понять, под какой контент имеет смысл писать и где пробелы.
честно: серебряной пули нет. это educated guessing плюс базовая SEO-гигиена. большинство AI SEO тулов пока выглядят скорее как агентства, продают ручную работу под видом автоматизации.
кто трекает AI-цитирования в масштабе? если кто-то делает что-то инетерсное в этом домене такое, напишите в личку, с радостью познакомлюсь.
Год назад в кулуарах «Я люблю фронтенд» Артём @artalog показал мне Roo. Я вернулся в Петербург, подключил Roo к Sonnet 3.7, удивился, что теперь действительно что-то можно отдать на откуп LLM и пошёл подсаживать команду. Мы нашли кейсы, где нейронка хороша, собрали мемори банк и настроили конфиги там, где она тупила. Именно тогда для меня и был переломный момент, когда я полностью поменял свое отношение к AI-кодингу.
А вчера я удалил папку .roo из проекта. И мемори банки удалил. Клод код пошуршал по этим файлам и сказал, что это прошлый век, там нет ничего полезного и он может лучше из коробки. Я с ним согласился и ушёл настраивать openclaw.
Что 9000 часов работы расскажут обо мне?
Попросил Сlaude Cowork проанализировать всю выгрузку моего Session за 3 года и проанализировать, что отличает мои лучшие недели (по часам работы) от остальных:
1. Consistency > Intensity Не "пахать 16ч в один день", а "не иметь дней по 1-2ч" Постоянство лучше, чем разовые рывки. В лучших неделях я работаю 7 дней в неделю и даже самый слабый день (из 7 дней в неделе) в среднем 5.8 часов. Если эта неделя была хорошей, следующая скорее всего будет тоже (корреляция +0.39)
2. Wide Span > Grind Hard Не "интенсивнее за 8ч", а "растянуть рабочее окно и заполнить его" Я не работал 10-12 часов без перерыва, мои рабочие блоки относительно широко распределялись по дню. В мои лучшие недели начало и конец работы разделяло, в среднем, 16.5 часов (по сути всё время бодрствования), но работа чередовалась с прогулками, спорт-залом и т.п. Я рано начинал и поздно заканчивал работу (но не позже полуночи, иначе испортишь себе следующий день
3. Deep Sessions > Many Sessions Способность уйти в длинную сессию – маркер лучших недель Не распыляться на много мелких задач, а иметь цельные блоки непрерывной фокусированной работы. В топ-неделях я начинаю день в среднем с 2-часовой сессии ("начинать день с Top Goal of the Day") + хотя бы раз в неделю была сессия на 8ч. Около 72% всех сессий в блоках по 90+ минут работы. В плохие недели первая сессия 87мин и много мусорных заходов <15мин
4. Afternoon Core + Morning Bonus Твой движок – afternoon. Утро – это то, что отличает хорошие недели от средних В лучших неделях моё время работы приходится в основном на день и на утро (с 6 утра до 6 вечера). В худших неделях на вечер и день, больше на вечер. И самое важное отличие, в свои худшие недели, я более чем в 2 раза меньше времени набираю днём
5. 1 Project Focus > Scatter Концентрация на 1 проекте коррелирует с output. Когда 60%+ времени на одном проекте (обычно разработка по Vibe) – выхлоп выше. Расфокус по нескольким проектам = слабая неделя. В лучшие недели всегда было ясно, что сегодня основное
6. Streak Killers: что убивает следующую неделю? Your worst day protects your best streak Худший день этой недели многое говорит о следующей. Если вечером (или тем более ночью) работаю больше чем днём, очень высокая вероятность спада продуктивности на следующей неделе. Высокий минимум дня на этой неделе – высокий шанс, что серия хороших недель продолжится. Опять же consistency > intensity
#LifeOps
агент для metabase
выше писал про то, что хочется иметь "cursor для metabase". поэтому почитав ваши комменты, я сделал настроил себе cursor для metabase (хех)
что делал: 1. взял курсор как агента 2. выпустил себе metabase api-ключик 3. прикрутил к агенту metabase-mcp-server. однако агент использовал его только для read-операций. все write операции делались через curl напрямую 4. по итогу процесс такой: я пишу агенту запрос "построй bar chart за последние 14 дней по всем solo escape играм и сделай разбивку по ton/stars" –– курсор выдает ссылку на карточку, которую я редактирую визуально, итерирую и добавляю в дашборд
такой сетап с нуля работает плохо агент вообще ничего не понимает, не понимает данные, совершает ошибки, попадает в бесконечные циклы из-за неправильного формата api-запросов
поэтому пришлось его ✨обучить✨
можно было потратить несколько часов и описать все самостоятельно в AGENTS.md, но это противная задача – я с ней прокрастинировал (думаю, вы тоже не любите это делать)
я решил сделать так: 1. прошу агента что-то сделать 2. итерируюсь в чате, пока не добьюсь результата 3. (главное) в конце задачи прошу сделать дамп всех инсайнтов о процессе в AGENTS.md, чтобы последующие агенты могли быстрее выполнить свои задачи
и это действительно работает. спустя запросов 5 агент смог хорошо ориентироваться в дашбордах и таблицах. ему можно было давать bulk-операции вида "сделай везде цвет профит-чартов зеленым" и задачи на построение целых дашбордов в 1 запрос
про модели в основном у агента 2 задачи: хорошо уметь в тулколлы (для ресерча бд и дашкбордов) и уметь писать sql. супер много интеллекта тут не надо. я попробовал 3 модели. больше всего зашел sonnet-4.5 (отличный баланс скорости и умности). gpt-5-* – слишком долгая, хочется быстрее, хотя надежнее. также попробовал composer-1 (модель от курсора) – очень быстро, но чет ума не хватает, частые ошибки и пропуски
я доволен. -1 рутинная задача, спасибо ии
Clawwork Cowork
Тем временем Anthropic превращает Cowork в эдакого clawdbot/openclaw --> появилась фича Dispatch, которая позволяет с телефона запускать задачи на компе: на скрине я попросил сказать мне, что на последнем скриншоте, что я сделал
Как я говорил на том вебинаре - подобие openclaw/clawdbot постепенно появится в "безопасном" виде у топовых лаб. ЧТД. Но проактивность пока не подвезли "Claude responds to messages only. Claude won't reach out proactively—it only works on tasks you assign."
Мне кажется, от зависимости на Claude Code и других агентов поляжет много народу
Когда я попал в ИТ и годы спустя, основная ценная мысль к которой приходишь примерно такая «по одному мы мало что можем, мы должны работать как команда чтобы делать великие вещи»
И это абсолютная истина – талантливые коллеги на местах мотивируют делать больше, гордиться продуктом, а вместе, иногда, вы делаете невероятное; но все это – очень сложная в поддержании система отношений между людьми
И вот, настает эпоха кодинг агентов - теперь любой член команды может заменить многих коллег цифровыми аналогами – Codex 5.2 xhigh и Opus 4.5 для работы, с GPT 5.2 Pro для написания PRD, в умелых руках способны на чудесные вещи, которые лет 5 назад стоили больших денег на рынке – «универсальная команда» доступна 24/7 и попадает в руки человеку с идеями, и любой человек с идеями не готов к этому новому миру
Человек с идеями начинает сначала делать, то, что давно хотел, потом реанимирует заброшенные проекты, через какое-то время покупает уже 7й домен «на всякий случай», ставит рекорды заброшенных в будущем проектов – но сегодня он ИТ-всемогущ, как ему кажется, на каждое сложное знание есть свой skill, на API-интеграцию – MCP сервер, на каждый сложный вопрос есть 5.2 Pro, которая не хуже чем многие эксперты в своих областях
И человек с идеями теряется – у него впервые в истории ИТ развязаны руки, он перепробовав все, не знает из чего выбрать, потому что идей, впервые, не больше чем ресурсов и терминал теперь источник эндорфина, не рилсы-тиктоки, даже не игры – мечта детства, всемогущая терминальная сила теперь стоит 200$ в месяц
В этой системе, мне кажется, самый ценный новый навык которого раньше не существовало, он был не нужен – научиться себе говорить «я это не делаю, не нужно» – потому что ресурсов уже сейчас хватает почти на всё и из-за этого формируется новая зависимость «создавать»
Мне кажется, многие не научатся себе это говорить – в коктейле FOMO и желания что-то сделать, видимо, появится новый психоз – уже чисто айтишный, где АИ-слоп выражен даже не в качестве кода, а в самом смысле продукта, в объемах информации, что человек производит в интернет
Ну или это правда ранние сигналы технологической сингулярности – мир где все могут всё в ИТ, мне пока непонятен, я к нему тоже не готов, и тоже учусь отказывать себе делать любую идею, что приходит в голову 🏥
Мой AI-сетап FW2026
Claude Code за $100. Планирование и agentic таски: перс ассистент, сетап VDS, всё что требует контекст и рассуждение. Планирование через superpowers
Codex за $200. Чисто code execution. Все матёрые OG разрабы пишут на нём. Плох в планировании и вайб-кодинге, когда не знаешь чего хочешь. Но если знаешь — улетает.
Ещё один трюк — cross-review. Задачу оформляю в Claude Code через брейншторминг, собираем план и финал скидываю кодексу на проверку. Кодекс доточенный к деталям: хорошо ловит ситуации когда хотим реализовать функцию, но забыли поддержку в другом месте или тест не написали. Клод чаще соглашается. Кодекс ищет.
IDEшка Zed, но в 90% случаев хватает Ghostty. Ещё понравился Codex App: удобный интерфейс для ревью изменённых файлов, работает быстро. Жду T3Code от Theo.
Был бы broke – оставил только кодекс. Токенов в разы больше, модели с контекстом работают лучше. Клод даже за один небольшой промпт у меня 30-40к контекста съедает при отсутствии system prompts и mcp. При этом работаю часто в 2-3 потока одновременно и на кодексе до 50% лимита ни разу не добирался, а клод периодически отлетает.
Antigravity не пробовал, как и курсор. Не очень понимаю как посредники работают с моделями.
Gemini пока не тестировал, но хочу скоро потестить с Pi agent. Модель вроде до сих пор плохо работает с tool calling.
однажды в Бразилии я пропустил свой рейс и ожидал следующего, сидя в кафе. как тут рядом со мной оккупировали столики молодые бразильские девушки и парни в толстовках Escola Bolshoi Brasil
поскольку мы были скованы ожиданием одного рейса, я решил закрыть комп и поболтать.
так узнал, что в Бразилии есть единственный филиал Большого театра в мире. причём в небольшом городе Жоинвиль, в котором живет 400к человек. гугл из достопримечательностей называет музей иммиграции и колонизации, музей льняного хлопка и церковь святого франциско. я был там одни раз, но в школу не попал - нужно приходить только в определенные часы.
почему именно там загадка. есть единственная документалка про это, на RT. там говорится, что мэр настолько проявил любовь и настойчивость, что Большой в москве не выдержал и согласился на открытие школы. но с условием, педагоги только из Москвы.
здесь педагоги из Большого уже 25 лет учат детей со всей Бразилии. для ребят из бедных семей обучение бесплатное, школа предоставляет жильё, питание и страховку. цель дать детям профессию и возможность изменить жизнь через искусство. выпускники потом выступают по всему миру: Большой, Казанский театр, Берлинский балет, Нью-Йорк.
среди выпускников школы Большого театра в Жоинвиле значится и самая молодая self-made женщина-миллиардер на момент написания этого поста
Luana Lopes Lara окончила школу, поработала балериной в Австрии, но в балет решила не идти и задалась целью поступить в MIT изучать CS. спустя несколько лет она подаёт заявку в YC с проектом Kalshi, prediction marketplace.
сегодня Kalshi оценивается в $14B.
Оказывается, ещё один релиз вышел — https://www.anthropic.com/news/claude-opus-4-1
за мем спасибо @denissexy
claude code + gemini tts (📢 звук вкл.)
как это работает? - клод код запрашивает историю чата через скил. - опус собирает контекст за 24 часа. - gemini хук генерирует ASMR-озвучку ответа. мы живем в фильме ОНА
#claudecode
Anthropic опубликовали исследование о влиянии AI на рынок труда и отвечают на вопрос: "В каких задачах, где LLM могут дать ускорение x2, уже сейчас наблюдается автоматизация?"
Синим цветом показаны задачи, где LLM, в теории, может предложить решение, либо дать ускорение x2. "В теории" значит, что задача решаема с AI, но есть внешние ограничения: правовые, отсутствие инструментов, нужна ручная валидация и т.д. Также некоторые задачи невыполнимы сейчас из-за ограничений самих моделей.
Красным цветом показаны рабочие задачи, которые: 1/ теоретически выполнимы с помощью AI 2/ составляют значимую долю рабочего времени 3/ уже сейчас часто решаются с помощью Claude в приложении или через API. Далее значения корректируются в зависимости от степени автоматизации и доли времени, затрачиваемого на задачу.
Итог – на графике. Какой вывод?
Если профессия под угрозой, можно подумать о переходе в менее рисковую сферу: <..> for example, Cooks, Motorcycle Mechanics, Lifeguards, Bartenders, Dishwashers, and Dressing Room Attendants 🆒
А еще, данные отлично показывают, где есть большой зазор для продуктов с AI под капотом!
@meta0max
под новый год Meta объявила о покупке Manus. писал про китайский проект пару месяцев назад; время порефлексировать.
1/ оценка в районе $2-2.5b. партнер Benchmark написал, что сделка дала им 1000% IRR. если посчитать: $75m вложений при ownership ~15%, срок 8 месяцев (апрель → декабрь), IRR 1000% годовых ≈ 11x в год -> 11^(8/12) ≈ 4.95x. exit value: (75 × 4.95) / 0.15 ≈ $2.47b.
2/ Manus это по сути wrapper над Claude и Qwen, но с интересными инженерными решениями: агенты работают в cloud VM с полным доступом к браузеру и shell, используют CodeAct (executable Python как action mechanism). много работы над оптимизацией KV-cache, по их словам, это главная метрика для production-агентов.
с другой стороны, отзывы смешанные. я лично несколько раз пробовал для задач, под которые рекламировались (букинг билетов, скраппинг маркетплейсов) - ломался по пути и съедал все кредиты.
3/ Manus заявляют 147T+ обработанных токенов. если прайсить по Sonnet 4.5, выходит ~$500m только на API. часть закрыли open-source моделями + кастомным контрактом. но по факту $100m ARR сложно свести такую экономику без большого капитала. рейзили с оценкой $2b - думаю, что не получилось и тут пришел Цукерберг, который выкупил инвесторов по желаемой оценке (и даже выше)
4/ Meta AI плохо сделан. работает только в WhatsApp-экономиках (Бразилия, Индия, часть Европы). Цукерберг говорил, что для штатов нужно отдельное приложение. думаю, план, который звучит, как personal superintelligence: новая продуктовая парадигма, которая откроет Meta дорогу в подписочную выручку. сейчас есть только Meta Verified ( это платная подписка на Facebook и Instagram): $11.99/month web, $14.99/month mobile. 1 million подписок. небольшой, но растущий revenue stream.
5/ Meta нужно присутствие в чатбот-интерфейсах, чтобы не потерять ad inventory. OpenAI/Anthropic сидят на consumer subscription низкомаржинальный бизнес с дорогим инференсом. поэтому экспериментирует с рекламой. Meta наоборот может позволить субсидировать подписки и ретеншен за счет рекламной выручки.
6/ Цукерберг явно считает, что scaffolding стоит больше, чем модели. картина мира "LLMs are commodities" и сдвиг от research-led к commercial-led. не думаю, что полностью забросят фундаментальные модели, вот работают, например, над Avocado - первая closed-модель Meta, релиз весной 2026.
да и, Meta выходит в prosumer-рынок и будет конкурировать напрямую с Anthropic. очевидно, что Claude не останется внутри agent loop Manus навсегда. так что свои наработки в моделях пригодятся.
7/ Meta прессуют за CapEx. нет cloud-бизнеса для перепродажи моделей enterprise. задел для позитивного ROI выше. пока Meta заявляет, что GenAI ROI позитивен через higher engagements и ARPU лучшие рекомендации и ad targeting. но стоит ли лучшая лента таких capex инвестиций? почему не сесть на хвост OSS и не быть консервативнее с CapEx?
8/ generic AI agent сложная продуктовая задача. слишком много сценариев, конкурируешь с сотнями мелких агентских компаний. поэтому можно представить экосистему разработчиков поверх Manus. или даже можно пофантазировать, как дистрибуция и разработка могут заалйнится (apps are the new content)
9/ Meta не плоха в acquisitions. покупай категорию, когда строить слишком долго - Instagram, WhatsApp. zoom-out стратегия Цкерберга очень эффективна. в прошлом году сделали 5 AI-поглощений: PlayAI (voice agents), WaveForms (AI audio), Rivos (chips), Limitless (AI wearables), теперь Manus.
Opus 4.6 > GPT 5.4
⚡️⚡️⚡️ Трамп приказал всем федеральным агентствам США прекратить использование технологий Anthropic.
Президент обвинил Anthropic в попытке навязать свои Terms of Service Министерству обороны вместо следования Конституции. По его словам, это ставит под угрозу жизни американцев, войска и национальную безопасность.
Ключевое: все федеральные агентства должны немедленно прекратить использование продуктов Anthropic. Для тех, кто уже глубоко интегрировал технологию (включая Department of Defense), дается 6 месяцев на переход. Трамп пригрозил "серьезными гражданскими и уголовными последствиями", если компания не будет сотрудничать.
Контекст конфликта, вероятно, связан с тем, что Anthropic отказалась предоставлять свои модели для военных целей без ограничений - их Acceptable Use Policy запрещает использование для военных целей. Это фундаментальный вопрос: должны ли AI-компании иметь право определять, как используются их технологии, или это решение должно оставаться за государством?
https://www.instagram.com/p/DVRtUmaESrt/
#anthropic #claude #ai #donald_trump #usa #politics
————————— Мысли Рвачева —————————
Cursor 2.0: видео-гайд новых возможностей.
Что нового?
Новая модель Composer 1 — в 4 раза быстрее
Cursor использует собственную новую модель, заточенную под программирование. Большинство задач выполняется меньше чем за 30 секунд.
Два режима интерфейса
• Agent View — для постановки задач и работы с ИИ в режиме чата • Editor View — старый, классический редактор кода
Параллельные агенты для решения задач
Можно запустить несколько агентов одновременно и сравнить результаты. Или поручить им разные части проекта.
Интеграция с браузером
Агенты теперь могут тестировать UI-изменения прямо в браузере и итерировать на основе того, что видят делая самостоятельно скриншота. Особенно полезно для фронтенда, автоматизирует рутину. Как начать вайбкодить в Курсоре?
1. Регистрация — создай аккаунт на cursor.com (первые 7 дней бесплатно) 2. Постановка задачи — опиши, что хочешь создать. Пиши простым языком как другу. 3. Настройка — выбери модель Composer 1 (самая быстрая) и режим планирования 4. Проверка плана — AI предложит план действий. Прочитай и при необходимости скорректируй 5. Запуск — жми Build и наблюдай, как агент пишет код в реальном времени 6. Тестирование — проверь результат, попроси доработать, если нужно