ElKornacio
@elkornacio·Разработчик
AI-саммари
Провозгласил смерть ownership кода раньше, чем это стало мейнстримом — и теперь подкрепил аналогией: жаловаться на то, что «ИИ пишет не так» — всё равно что возмущаться ассемблером, в который компилируется JavaScript. Пересоздал SaaS за $17 вместо $20 в месяц подписки, MCP разнёс как «бессмысленное решение собственноручно созданной проблемы», compound-стартап с масштабированием обсуждает всерьёз — и тут же добавляет «не получится конечно, лол». AGI к 2027 уже не маркетинг, ASI к 2027–2028 — вполне реалистичный горизонт; дилемма монорепо vs. раздельные репы для параллельных агентов — живая боль. Разносит нарратив про AI-слоп: наблюдая ~20 команд, видит обратное — с агентами тесты, CI, линтинг и рефакторинг становятся нормой, недоступной раньше даже top-1% команд. Гоняет Codex CLI с gpt-5.2 и Claude Code в 3–4 параллельных потока; workflow пакует в bash-скрипты ради гарантированной повторяемости. Потестил subagents в Codex в бете — нашёл реализацию слабее, чем у Claude Code. Rule of thumb не меняется: нативный harness (модель компании X в harness компании X) в 99% случаев лучше любого стороннего.
да что за день пустых громких релизов, господи.
скипайте, херня, рядом с Nano Banana и рядом не стояло. с Pro - так тем более. потестил буквально на тех же задачах, на которых банану юзал, абсолютно идентичные промпты давал.
когда на словах ты "режим Code Red", а на деле our own models are leading in our own benchmarks
ладно, к интересному. OpenAI решили выпустить ответочку Nano Banana Pro: https://openai.com/index/new-chatgpt-images-is-here/
заявляют, что всё стало лучше, и детали учитываются, и текст генерирует хорошо, и быстрее в 4 раза (и платить отдельно за это не надо, как у Google)
надо тестить!
UPD: The ability to generate some specific art styles has regressed from the previous version., кек, таки порезали аниме-стили, после наезда от правительства Японии
ладно, это ужасно блеклый и скучный релиз(((( комментов по обвинениям нет, жестких треков нет, какой-то беспрерывный самоповтор, увы надеюсь, хотя бы мемы и хайлайты из твиттера на the flow будут смешные, но надо дать им настояться
дальше возвращаемся к AI-тематике 🙂
P.S. для меня это прям антирекорд - не то что "нечего кинуть на репит", а даже "пару треков ускорил и скипал концовки, потому что было неинтересно дослушивать"(
нихрена же себе, это что за камбек. важнее любых AI-новостей, если честно (правда, ещё не слушал, но верю в лучшее 🙂)
https://t.me/norimyxxxo/623
в третий раз перечитываю https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic отличный репорт получился, есть много интересных моментов на порефлексировать.
самый главный: прикольно, НАСКОЛЬКО все скиллы работы с ИИ, которые описывает Anthropic - это обычные менеджмент скиллы. всякий технический дроч аля ручной context engineering - для 1% юзеров, кто хочет выжать дополнительные 15-20% качества.
для 99% юзеров "AI-скиллы" это буквально: 1. нормально бля опиши задачу 2. делегируй по принципу "много труда получить результат -> мало труда проверить результат" 3. научись понимать, какие очевидные тебе штуки не очевидны больше никому, и нормально их распиши при делегировании 4. хочешь конкретный результат? ну так конкретно опиши че хочешь, не жди угадывания мыслей
единственное отличие: если правило "делегирование займёт больше времени, чем сделать руками" в случае людей можно, и, зачастую, нужно нарушать (потому что так сотрудник обучается, и делегирование занимает меньше времени в будущем), то в случае ИИ его нарушать бессмысленно, и проще делать такие штуки руками (и ждать новых умных моделей)
хотите обзор самого главного в ИИ за этот год?
вот прям всю мякотку: от хардкорного ML / ИИ в разработке до взгляда на ИИ от бизнеса.
к тому же я там выступаю 🙂 с оч сочной темой: "AI в разработке: эволюция ИИ-агентов (CC/Codex/Gemini) в экосистемы, Context Engineering, и как ИИ влияет на метрики разработчиков".
конфа от тех же ребят, что делали AI Dev Live (напомню, одна из крупнейших ИИ-конф, 3к+ участников, я там на панельке был).
в программе: - Сдвиг парадигмы в управлении процессами, который все пропустили - Как в 2026 бизнесу отличить: где ИИ-фанатизм со сливом бюджета, а где ИИ-инструменты с реальной ценностью? - Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ? - RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений? - Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?
в общем, шикарная солянка контента от экспертных спикеров: парочка Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний: самый лучший состав, чтобы рассказать про ИИ со всех ракурсов.
⚡️ вот ссылка для записи на предновогодний эфир (все еще можно бесплатно!)
btw, если вы следите за проектом 21st.dev (релевантная история, UI-building AI-agent, хотя многие этот проект знают как супер-либу сочных React-компонентов), то вам возможно будет интересно узнать, что его автор телеграм-канал на русском ведёт, @serafimlivestream 😼 за этим проектом тоже очень интересно следить.
но вообще, я чувствую strong vibes of AI-frontend в начале 2026. Antigravity с кучей фич под фронт, Cursor с мега-апдейтом, интересно, какой будет ответ Anthropic?
https://cursor.com/blog/browser-visual-editor
кажется, у Figma сегодня тяжёлый день. они шли в эту же историю, но с противоположенного конца
btw, писал пару недель назад про то, что в Cursor будет debug-режим. и вот, его завезли в паблик релиз: https://cursor.com/changelog
ещё из интересного - теперь после работы пачки параллельных агентов, в конце добавляет коммент, какой агент по мнению Курсора лучше всех справился с задачей (aka "agent judgement"). вполне приятная фича, но не очень понятный юзкейс
Вышло масштабное исследование от a16z и OpenRouter про то, как люди реально используют LLM. Проанализировали 100 триллионов токенов* за год.
* 1 токен ≈ 4 символа или ≈ 0,75 слова. То есть 100 токенов — это примерно 75 слов, а 100 трлн токенов — 75 трлн слов. В Библии ≈ 783 000 слов, то есть в исследовании OpenRouter проанализировали массив из 100 млн Библий.
OpenRouter — это агрегатор доступа к LLM-моделям. Через один API можно подключиться к сотням моделей от разных провайдеров: OpenAI, Anthropic, Google, DeepSeek, Qwen и прочим. Популярен среди разработчиков, потому что позволяет легко переключаться между моделями и сравнивать их. Через них проходит огромный поток запросов. Отсюда и уникальные данные для исследования.
— Главный сюрприз: больше половины использования open-source моделей — это ролевые игры и сторителлинг. Не код, не рабочие задачи, а общение с игровыми персонажами и сочинение историй (storytelling). Кто бы мог подумать, что индустрия в триллионы долларов во многом держится на том, что люди хотят поболтать с виртуальным другом.
— Open-source модели уже занимают 30% рынка. Год назад было меньше 10%. DeepSeek и Qwen растут как бешеные.
— Программирование — второй по популярности кейс. При этом 60%+ всех запросов на код идут через Claude от Anthropic. Sonnet доминирует.
— Половина всех токенов теперь проходит через reasoning-модели (o1 и аналоги). Модели перестали просто генерировать текст. Они думают, планируют, используют инструменты.
— Азия выросла с 13% до 31% всего потребления. Китай стал не только производителем моделей, но и крупнейшим потребителем после США.
— Цена слабо влияет на спрос. Люди готовы платить премиум за качество. Claude дороже конкурентов, но его используют больше всех для серьёзных задач.
— Интересный феномен «стеклянной туфельки» (Glass Slipper): если модель при первом использовании идеально подошла под чью-то задачу, пользователи остаются с ней навсегда. Первый, кто решил проблему, забирает лояльность.
— Из неожиданного: маленькие модели (<15B параметров) теряют долю рынка. Победителями становятся средние модели (15-70B) — оптимальный баланс цены и качества.
Полный текст исследования на 36 страниц в приложении, там же методология исследования.
@buzko_hub
шёл декарь 2025, 70% площади экрана в редакторе кода занимают ИИ-агенты 🙂
ладно-ладно, уговорили, попробую именно в codex-cli его поюзать. за использование cli вместо gui молоко должны за вредность давать 😕
не, говорите что хотите, но gpt-5.1-codex-max-high слабее sonnet-4.5-thinking 🙂 её плюсы заканчиваются на том, что она сейчас бесплатна в Курсоре.
недавно потестил один сервис для умного скрепинга реддит постов. в целом норм, хоть и с парой-тройкой неудобств, да и не хватило пачки фич, которые пригодились бы под мою задачу подписка стоит $20.
триал кончился, уже было собирался оформить, но... надиктовал промпт размером А4, с детальным описанием того, как я вижу собственную реализацию этого сервиса, со всеми фичами, которые мне нужны. ~30 минут работы Cursor (и он сам отлаживал фронт через встроенный браузер) и ~10 минут полировки в Claude Code
суммарно потратил ~$17 на extra usage tokens.
работает идеально, по сути я полностью скопировал весь продукт, попутно сделав его ещё функциональнее и лучше.
в интересное время живём 🙂
P.S. интересно, сколько SaaS-продуктов имеет стоимость подписки, которая выше стоимости копирования продукта через ИИ? P.P.S. а сколько продуктов будет попадать в этот критерий через год-два? P.P.P.S. нет, это не был простой и легко копируемый продукт. мне тут повезло иметь очень хорошую экспертизу конкретно в этом кейсе, по сути я сходу надиктовал ИИ идеальную архитектуру и весь набор нетривиальных решений, которые надо заюзать, чтобы всё получилось. но энивей - я поймал вау-эффект.
чтоб вы понимали, я отчаялся настолько, что пишу статьи, то есть просто текст ✨В КУРСОРЕ ✨. даже сделал себе отдельный суперкодовский кастом-мод с системным промптом на 3 листа А4, лол, который считает себя копирайтером по конкретной теме.
потому что там я раз в 5 лучше результат получаю, чем в ChatGPT / AI Studio, при использовании тех же моделей.
я кекал с историй, что некоторые ребята Курсор используют как универсальную агентскую среду, без привязки к задачам разработки, а вот теперь что-то даже и не смешно. мб tavily туда через mcp затащить, и вообще забыть про chatgpt навсегда
P.S. нет, ну вот прям серьёзно - тулинг дико решает. ChatGPT запрос "отредактируй только второй абзац, не трогай первый" - не может решить, переделывает текст в первом. а в Cursor модель просто дёргает тул search_replace (дефолтный тул для редактирования кода в Курсоре) - и идеально исправляет только то, что надо, ещё и токены экономит. кайф.
слушайте, как люди вообще ChatGPT пользуются? я не понимаю, что за волшебную лампу с джином открыли когда-то в Anthropic, но то, насколько у них instruction-following сильнее, чем где-либо вообще в принципе - это же неописуемо. ну то есть GPT-5.1 в ChatGPT игнорирует базовые, самые элементарные требования и правила, steering совершенно нулевой, я как будто общаюсь не с instruct моделью, а с сырой фундаментальной моделью, она вообще не вдупляет что происходит. и agentic capabilities порезаны донельзя - у модели и Canvas-режим в тулах есть, и websearch она может делать, но workflow прибит гвоздями настолько, что увидеть tool call от ChatGPT не в начале диалога - это чудо какое-то.
и Gemini такой же альтернативно одарённый. сносно вывозит делать UI (именно с точки зрения визуала), но качество архитектуры и instruction following - как у пятилетнего ребёнка. вместо тулколла сделать "эмуляцию" туллколла, нагаллюцинировав его - вообще спокойно.
ну то есть, это же прям реально интересно, вам не кажется? Anthropic ещё с Sonnet 3.5 снесли всех на рынке качеством агентского поведения. я по сей день в гипер-супер-пупер-флагманских моделях от других гигантов не вижу даже трети того качества агентского поведения, какое есть у Anthropic.
отдельно в контексте day-to-day usage интересно сравнивать собственные ощущения с бенчами. по субъективным ощущениям - за год у Anthropic и китайских моделей качество выросло в разы, это реально земля и небо. а у OpenAI/Google - ваще хз, в каком таком SWE Verified они там лидируют, но я не смогу GPT-5.1 от GPT-4o отличить, в повседневных задачах интеллект как будто не вырос ни на миллиметр.
в Anthropic работают какие-то психопаты...
⚡️ анонс, буду выступать 12 декабря на:
Неделе про AI-инструменты для руководителей и бизнеса от Стратоплана & со
конец года, астрологи объявили месяц сочных конференций 🙂 вы точно помните наш AI Dev Live: получилась одна из крупнейших конференций про AI-разработку.
в этот раз Стратоплан и спикеры AI Dev объединились вместе, чтобы выдать нечто ещё более крутое, с большим уклоном в бизнес:
– показать AI инструменты для руководителей на практике, а также разобрать модель – GenAI Orchestrated Augmented Leader – показать, как организовывать работу сотрудников с нейросетями, чтобы это было эффективно – разобрать несколько кейсов внедрения в бизнес: что сработало, что провалилось и почему; – рассмотрят форматы внедрения и дадут чек-лист самых популярных проблем на пути (конечно, с решениями)
🗓 Когда: с 8 по 12 декабря, с 16:00 до 17:00 GMT+3 🗞 Формат: каждый день по одному часу и инструменту для решения ваших текущих задач
🔗 Бесплатно и без всяких скрытых оплат: https://stratoplan-school.com/marathon/elcor/
P.S. давно хотелось поговорить про AI с позиции бизнеса, а не только технарской. мне кажется, это будет очень интересный опыт: потравлю байки о том, какие сценарии внедрения ИИ я наблюдал, с какими болями неправильного внедрения менеджмент сталкивался (от саботажа до увольнений), и что с этим всем делать. будет круто!
Anthropic купили Bun, офигеть 🤯
жду пару тысяч твитов от Джареда Самнера по этому поводу
поизучал чуть глубже debug-режим. на первом скрине - примерное краткое содержание системного промпта debug-режима на русском.
агент генерирует гипотезы багов, и прокидывает прямо в ваш код debug-логи через ndjson-сервачок. он пишет вам список шагов, которые надо выполнить, чтобы воспроизвести ошибку.
когда вы выполняете шаги (или он делает это сам через browser tool / terminal), то все дебаг логи летят сразу в контекст агенту, и он таким образом может проверять свои гипотезы.
бегло потестил - очень понравилось как работает, тот же Opus генерировал весьма адекватные гипотезы багов и быстро их самостоятельно тестил.
кайф 🙂