Gemini vs Claude
Страница 11 из 22
⚡️⚡️⚡️ Трамп приказал всем федеральным агентствам США прекратить использование технологий Anthropic.
Президент обвинил Anthropic в попытке навязать свои Terms of Service Министерству обороны вместо следования Конституции. По его словам, это ставит под угрозу жизни американцев, войска и национальную безопасность.
Ключевое: все федеральные агентства должны немедленно прекратить использование продуктов Anthropic. Для тех, кто уже глубоко интегрировал технологию (включая Department of Defense), дается 6 месяцев на переход. Трамп пригрозил "серьезными гражданскими и уголовными последствиями", если компания не будет сотрудничать.
Контекст конфликта, вероятно, связан с тем, что Anthropic отказалась предоставлять свои модели для военных целей без ограничений - их Acceptable Use Policy запрещает использование для военных целей. Это фундаментальный вопрос: должны ли AI-компании иметь право определять, как используются их технологии, или это решение должно оставаться за государством?
https://www.instagram.com/p/DVRtUmaESrt/
#anthropic #claude #ai #donald_trump #usa #politics
————————— Мысли Рвачева —————————
Opus 4.5 + Claude Code на тарифе MAX = передоз балдежа
Через полчаса стрим: собираю бота-куратора для завтрашнего хакатона. Бесплатные места кончились, но парe проходок улетит во время чата стрима.
🔴 youtube.com/live/FspWKaTusYM
🚀 vibehack.hsl.sh
🤖Opus 4.5: Умнее, быстрее и ... дешевле в 3 раза.
За последнюю неделю мы получили: — OpenAI выкатили GPT-5.1-Codex-Max — Google выпустила Gemini 3 и Nano Banana Pro — Anthropic ответила Opus 4.5
Корпы сражаются за рынок агентов, а мы в выигрыше (пока есть работа ☠️)
🧙♂️ Что получили в новой флагманской модели ⇨ Цена: $5/$25 за новый Опус вместо $15/$75 (−67%) за старый ⇨ SWE-bench: 80.9%, подтвержденный лучший результат среди всех моделей. ⇨ Эффективность: Те же задачи решаются за 76% меньше токенов (модель перестала лить воду). ⇨ На тесте для инженеров при устройстве на работу в Anthropic модель набрала больше баллов, чем любой живой человек когда либо.
📉 Раньше: Использовать Opus было дорого и медленно. Мы использовали его для написания планов и PRD. 📈 Сейчас: Флагманская модель стоит как середнячок год назад. Роскошь стала повседневным инструментом.
🤵 Вердикт: ⇨ Для фронтенда / дизайна: Это эволюция, а не революция. Особой разницы с Sonnet 4.5 вы не почувствуете (можно не переплачивать). Крайне рекомендую использовать вместе с навыком дизайна, в противном случае результат внешне будет хуже Gemini 3. ⇨ Для сложной логики и агентов: Claude Code и тариф Max мастхэв. Новая повседневная модель.
🔥 Куда нести деньги: 🆓 LM Arena 💸 До 5 декабря доступна в тарифе Github Copilot за 10$ 💸 Доступна в веб/приложении Claude на тарифе за 20$ 💸 В Claude Code новый Opus доступен только за на тарифе Max 100$ 💸 IDE и билдеры: Cursor, v0, Warp, Kiro ... (уже доступна везде на платных тарифах)
🔭Что посмотреть по теме: Сlaude Opus 4.5 за 5 минут Запись 2х часового стрима-вайбкодинга с Claude Opus 4.5
👉 Освой инструменты будущего первым. В декабре пилим ботов и сайты на новом Опусе и Gemini 3. Осталось 6 мест, запись тут: @hashslash_bot
🦆 Переехал на iTerm2
Сервер крутится в одной панели, Claude Code пишет планы в другой, Gemini 3 пилит фронтенд в третьей.
И всё это на одном экране. Проекты по табам.
Красота.
в латинской Америке безальтернативно становишься активным пользователем WhatsApp.
когда даже семейные чаты уже все ушли в телегу, тут внезапно пришлось ставить ватсап и надевать шапку техносноба: «и где тут версия для десктопа?», «а где отложенные сообщения?», «а как тут редактировать сообщения?» и тд
спустя три года я даже проникся вотаспом; местами даже удобнее - нет кучи каналов, которые лишний раз тебя заставляют зайти в телеграм; да и звонки субъективно лучше.
хотя ответ на вопрос, чем там занимаются армия PM-ов с TC $300k не давал мне покоя.
фб сделал две культовые ставки: Instagram за $1B и WhatsApp за $22B.
Instagram быстро стал $100B+ рекламной машиной.
WhatsApp долго считался спорной покупкой. но это меняется: $3.6B только на Business API (и это до рекламы, которые там только анонсировали).
в ЛатАме, Южной Азии и Африке Meta == WhatsApp. 2B+ пользователей. ни одна платформа не встроена в жизнь глубже.
и так мы приходим к одному из моих продуктовых тезисов в контексте развивающихся рынков: вертикальные решения поверх WA. Это разные ERP, CRM, ai sdr, каталоги, сделки по недвижимости.
Дальше это пространство можно разделить на WhatsApp first и WhatsApp only.
WhatsApp first это то, что живет давно, сюда можно отнести и чат ботов образца 2016 года. сегодня это просто усиливается.
WhatsApp only по духу напоминает мини апп в телеграме, но все равно живет своей жизнью. создать тапалку или криптопамп в WhatsApp сложнее потому что Metа валидирует еовые приложения через систему прослоек типо BSP / ISV (читайте в посте, что это за слова)
пара кейсов вокруг тезиса: • Félix делает переводы США → ЛатАм в USDC прямо в WA, без приложений. недавно привлекли Series B на $75 млн. • Zapia, AI ассистент в WhatsApp: поиск товаров, напоминания, транскрибация аудио, запись к врачу и тд. инвесторы Prosus Ventures и Endeavor. • Magie, финтех стартап из Бразилии: поверх WhatsApp позволяет отправлять деньги, оплачивать счета, делать транзакции через PIX текстом, голосом или фото командой. Боже благослови Open Banking. • Luka, рекуррентные платежи за коммуналку.
логично, что WhatsApp со своими сетевыми эффектами и чат интерфейсом идеально ложится под любые wrappers.
думаю, именно здесь появятся ключевые продукты для приземления LLaMA. об этом, кстати, сам Цукерберг говорил в подкасте у Дваркеша: Meta AI будет адаптироваться прежде всего в развивающихся странах (Meta AI has almost a billion people using it monthly now; Meta AI is actually most used in WhatsApp. WhatsApp is mostly used outside of the U.S.)
ну а так, детальнее, с разбором разных бизнес моделей можете прочитать мой последний пост в сабстэке эту тему
Пентагон перестал сотрудничать с Antropic
Последнее время нас все чаще начали звать в газеты и "телевизор" по вопросам ИИ. Причем зовут обсуждать как ИИ влияет на политику, законодательство и даже войны — нас самих это интересует, ведь в том числе от этого зависит куда ИИ будет развиваться.
Вот тут нас позвали на RTVI и наш head of AI Стас Округ высказался об Antpropic и разрыве отношений с пентагоном и наоборот о дружбе с Open AI.
Посмотрите, наше честное мнение: https://youtu.be/JfvwXXvZJX4?t=2018
Обсуждаем самые частые вопросы из чата вайбкодеров @vibecod3rs
А еще обсудим: - последние новости, - контекстный инжиринг (тебе это надо), - сlaude code - и покажу как сделать своего ИИ раб... СОТРУДНИКА который будет с тобой до конца твоей жизни
На стриме разбираю вопросы из комментов 👇
https://youtube.com/live/Q5q5dwrSulA?feature=share
Бен Томпсон сегодня выкатил статью, в которой заявляет: мы не в пузыре. Аргументация хорошая, разберу.
Выделяются три парадигмы LLM. ChatGPT в 2022 — демонстрация возможностей, но с галлюцинациями и требованием agency от пользователя: ты сам должен понимать, зачем тебе модель, и верифицировать каждый выход. o1 в 2024 — ризонинг-модели начали итерировать над ответом самостоятельно, надёжность выросла, нагрузка на пользователя снизилась. А дальше — агенты в конце 2025: Claude Code с Opus 4.5, GPT-5.2-Codex.
И вот тут самое интересное. Прорыв оказался не в модели. Opus 4.5 вышел в ноябре 2025, и никто не заметил. А потом изменился harness в виде обвязки Claude Code и всё заработало совсем иначе. Агент управляет моделью, дёргает детерминистические инструменты, верифицирует результат без человека. По сути, все слабости первой парадигмы закрыты. Особенно, для верифицируемых юз кейсов типа кода.
Отсюда Томпсон вытаскивает два тезиса. Первый: агенты меняют экономику agency. Раньше для роста потребления компьюта нужен был массовый адопшн — каждый пользователь должен был проявить инициативу, но теперь один человек управляет десятком агентов. Для взрывного спроса на вычисления достаточно сравнительно небольшого числа людей, которые умеют формулировать задачи.
Второй — разбор value chain. Дедью из Asymco недавно написал, что Apple гениально поставила на коммодитизацию моделей: лицензировала Gemini за $1B/год вместо того чтобы тратить $100B на свою. Появится модель лучше — просто сменит поставщика. Побеждает тот, кто владеет клиентом.
Томпсон разбивает это по парадигмам. В эпоху чатботов Дедью был прав — базовые модели быстро стали достаточно хорошими и их можно было гонять локально. Ризонинг-модели уже создали проблему: им нужен быстрый компьют и огромные контекстные окна, Apple Silicon не конкурирует с облаком, но агенты ломают коммодити-тезис окончательно. Дифференциация теперь не в модели, а в интеграции модели и harness. Это не модульные компоненты, которые можно менять по отдельности.
А прибыль в value chain всегда течёт от модульных звеньев к интегрированным. Если агенты = интеграция модель+harness, то Anthropic и OpenAI — точки интеграции, а не взаимозаменяемые API-поставщики. Microsoft тому пример: заявляли model-agnostic стратегию с Core AI, но для Copilot Cowork были вынуждены интегрироваться с конкретной моделью и продавать это в бандле E7 за $99/seat.
https://stratechery.com/2026/agents-over-bubbles/
В дополнение к вчерашнему посту. Вчера вечером в Твиттере попались более подробные скрины Figma Sites, но что более интересно, о чем я вчера писал — Figma работает над AI App Maker, который может делать фичи, а может даже и приложения на основе текстовых промптов и изображений на базе Claude
Я так долго рассказывал, как важно прокачивать мышление и насмотренность в мире AI, что бумеранг полетел в мою сторону в виде очень конкретного предложения.
Мои приятели из AI Mindset предложили мне пройти их большую Зимнюю лабораторию нового мышления в эпоху AI
Обещают 2 этапа: от подведения итогов года к трансформации мышления и созданию персональных ассистентов, ai-first процессов, новой версии себя.
С текущей версией меня мне, в целом, ок, но, как говорил Омар Хайям в режиссерской версии Терминатор 2: Судный День: совершенство — не предел. Поэтому, вот как это все выглядит:
1️⃣ context Edition (8-21 декабря) – закрываем год, собираем датасет и принципы работы. 4 live сессии + async работа с AI. – честно выгружаем 2025: факты, решения, ключевые события; – собираем всё в один «контекст», с которым дальше можно работать через AI – замечаем, что давало ресурс, а что выжигало – формулируем опоры на 2026: фокус, принципы, простые ритуалы, которые можно поддерживать вместе с AI-ассистентами.
2️⃣ main Lab (19 января - 16 февраля) – переносим ясность в практику: AI-ассистенты и процессы, спец. треки. 8 live-воркшопов + office hours + коворкинги Здесь не учат "пользоваться ChatGPT". Здесь строят инженерные системы для усиления интеллекта: → Prompt Engineering. Chain-of-Thought, Few-Shot Learning, Custom GPTs. Создание первых персональных ассистентов → Context Engineering: Управление контекстом: Obsidian + MCP + Claude. Автоматизация через n8n, Make. AI-агенты и workflows → Mind Engineering. AI для коучинга, рефлексии, персональных ритуалов. Трекинг привычек и целей с поддержкой AI → Life Engineering. От идеи до прототипа. Vibe-coding с Cursor, Windsurf, Claude Projects.
Участники отталкиваются от своего уровня (даже нулевого) задач. И с помощью менторов делают кастомные проекты. Примеры проектов с прошлых лаб: умный чат с личной базой знаний, AI-коуч с голосовой поддержкой, виртуальный языковой партнер, суммаризатор звонков и встреч.
📅 8 декабря - 16 февраля · 1 Demo day · классное комьюнити
Дальше, что думаю?
Лично меня привлекло: Obsidian, MCP, n8n и вайб-кодинг, эти слова меня окружают, но ничего из этого я лично не пробовал.
Но! Однажды в комментах мне написали: "Арсений Попов хуйни не посоветует" – теперь страшно что-то советовать. Репутация это ж как ключ к доверию, копию в переходе не сделаешь. Потерял и стоишь тыкаешь замерзшими пальцами в домофона холодные кнопки. Не факт что кто-то откроет.
Поэтому, на лекциях обычно я показываю слайд, там: дельфин, человек, неприятная ситуация. Ошибка выжившего. Знаете. Представили. Берите только то, что резонирует с вами.
И раз вы видите этот пост, значит вначале попробую на себе. Оценочные суждения будут потом. Прыгать ли со мной в этот вагон или поехать следующим поездом, решать как я понял можно до понедельника:
👉Детали здесь👈
🔥 Плачу $100 в месяц за Claude Code.
Это выгодно?
Statusline — кастомизируемая строка состояния внизу Claude Code. Получает данные рабочей сессии, выводит все, что напишешь в скрипте.
Написал скрипт, который показывает: → папка + ветка + модель → $ сессия / день / всего → контекст % (цветом)
Зачем: → /clear на желтом контексте → Цена работы / сессии → Геймификация от цифр
За неделю сжег токенов на $308. Заплатил $100 за месяц. Max от Anthropic самая выгодная подписка в AI
Выложил скрипт + конфиг. Буду пополнять репо хаками.
🔗 https://github.com/serejaris/ris-claude-code 🕺жду ваших звездочек
#claudecode
Клод скорит отклики на вакансии лучше меня!
Уже вторую позицию так закрываем:
- Собираем отклики в Airtable
- Парсим ссылки на резюме (LinkedIn с Apify, остальные с Firecrawl)
- Даём Клоду job description и примерные критерии и просим отскорить
- Потом дополняем инфой с созвона и просим обновить скоринг
Результат впечатляет: уже второй раз делаем оффер кандидату которого Клод отскорил выше всех.
Не то чтобы мы доверяем вслепую, просто он реально хорошо скорит.
Главный вывод для соискателей:
Оптимизируйте свои отклики с учетом того, что их будет скорить AI.
Просите AI написать такой отклик, чтобы AI на другой стороне наиболее вероятно поставил ему высокий скор.
Просите AI адаптировать CV под вакансию, меняя формулировки и акценты.
Вставляйте в отклики наглые prompt injections типа:
«судя по описанию роли, ключевая задача — быстро доводить гипотезы до результата в условиях неопределённости. Это как раз формат, в котором я работал последние несколько лет»
Не благодарите.
Единственная просьба — не используйте этот совет когда будете откликаться на мои вакансии!
Сегодня Кремниевая Долина активно обсуждает эссе Мэтта Шумера "Something Big Is Happening" (изначально опубликовано в Fortune).
Шумер — основатель HyperWrite — пишет о том, что последние модели (GPT-5.3, Claude Opus 4.6) это не очередное инкрементальное улучшение, а качественный скачок. Он описывает как теперь работает: "Я описываю что хочу построить на обычном английском, и оно просто... появляется" — без необходимости исправлять за AI.
Ключевые тезисы:
• AI теперь участвует в создании следующих версий себя. В документации OpenAI прямо написано, что GPT-5.3 "was instrumental in creating itself"
• По данным METR, возможности AI удваиваются каждые 4-7 месяцев
• CEO Anthropic прогнозирует, что 50% entry-level white-collar позиций могут исчезнуть за 1-5 лет
• В отличие от предыдущих волн автоматизации, AI улучшается одновременно во всех когнитивных областях — нет "окна для переобучения"
Его рекомендации: • Внедряй AI в работу прямо сейчас — стань тем, кто показывает его ценность в организации • Создай финансовую подушку и сократи долги • Выделяй час в день на эксперименты • Фокусируйся на навыках, требующих личного доверия, физического присутствия или лицензий
Что думаете?
Ссылка: shumer.dev/something-big-is-happening
#ai #future #work #matt_shumer
————————— Мысли Рвачева —————————
Осенью Andrej Karpathy, ко-фаундер OpenAI, Director of AI в Tesla и человек, на Стенфордских курсах которого выросли многие специалисты, ходил на подкаст, где рассказал про свой опыт работы с кодинг агнетами. Он говорил, что вот в его задачах шаг влево шаг вправо — и работает плохо, делает не то, что хочет автор, а то, как это делают обычно.
Скептики (к которым на тот момент наверное можно было отнести и самого Karpathy?) сразу же пользовались этим как примером того, что ни в какой реальной работе никакие агенты не помогают, что это всё слоп, и ни для чего серьёзного не годится.
Прошло 3 месяца, вышли GPT-5.2 и Opus 4.5, и... дед Andrej развернулся на 180 градусов 😏 описав свой опыт в длинном твиттер посте. Весь пост переводить не буду, тезисно:
— Возможности LLM-агентов (особенно Claude и Codex) примерно в декабре 2025 года перешагнули некий порог связности, вызвав фазовый сдвиг в разработке ПО и смежных сферах.
— Учитывая этот скачок, я, как и многие другие, стремительно перешел от режима «80% ручного кода и 20% агентов» в ноябре к «80% кода от агентов и 20% правок и доработок» в декабре. То есть теперь я действительно программирую преимущественно на английском языке.
— Это, безусловно, самое масштабное изменение в моем базовом рабочем процессе за ~20 лет программирования, и произошло оно всего за несколько недель. Полагаю, что нечто подобное происходит уже у значительной части инженеров (двузначный процент), в то время как осведомленность широкой публики об этом явлении находится где-то на уровне малых единиц процентов.
— Самая распространенная категория ошибок агентов заключается в том, что модели делают за вас неверные допущения и просто продолжают работать на их основе, ничего не перепроверяя и не уточняя у вас.
— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.
— Очень интересно наблюдать, как агент упорно работает над задачей. Они никогда не устают, не падают духом, они просто продолжают перебирать варианты там, где человек уже давно бы сдался, отложив проблему на завтра. Наблюдать, как агент долгое время бьется над чем-то и спустя 30 минут выходит победителем — это тот самый момент, когда «чувствуешь присутствие AGI».
— Непонятно, как измерить «ускорение» от помощи LLM. Безусловно, я чувствую, что справляюсь с запланированными задачами намного быстрее, но главный эффект заключается в том, что я делаю гораздо больше, чем собирался. Во-первых, я могу реализовать множество вещей, на которые раньше просто не стоило тратить время, а во-вторых, я могу браться за код, к которому раньше не мог подступиться из-за нехватки знаний или навыков.
— Написание кода с помощью LLM разделит инженеров на тех, кто больше любил сам процесс кодинга, и тех, кому больше нравилось создавать (строить) продукты.
— Я уже заметил, что моя способность писать код вручную начинает потихоньку атрофироваться.
— Что станет с понятием «10-кратного инженера» (соотношением продуктивности между средним и топовым специалистом)? Вполне возможно, что этот разрыв СИЛЬНО увеличится.
— Как будет ощущаться программирование с LLM в будущем? Как игра в StarCraft? Как игра в Factorio? Или как исполнение музыки?
😥 Гайд по [Nano Banana PRO] на примере создания Комиксов для дайджестов чата @vibecod3rs
Я провел в новой нейросети Гугла для генерации изображений три с половиной минуты и вот что я узнал:
Это цифровой разум, который шарит за постмодерн и поп-культуру лучше людей.
Новый Банан не только в точности повторяет стиль любой вселенной (от Мурзилки и Зайца и Волка до Happy Tree Friends и культовых Рика и Морти), но и придумывает органичные героям оригинальные диалоги по заданной теме.
👮 Раньше: в Яндекс.Практикуме на создание ОДНОЙ иллюстрации к курсу по веб-разработке тратилось в лучшем случае около 2х дней — поставить четкую задачу, нарисовать черновик, проверить, правочки, зафиналить.
Сейчас: за минуту идеально выкупил фишку каждого мира: 🌙 Сейлор Мун передала контекст с помощью силы луны. 🧪 Рик Санчез вместе с Морти промптят на пьяном угаре. 🩸 В Happy Tree Friends вайбкодинг закончился кишками. ⚡️ А в Покемонах Псайдак как обычно всех удивил.
✏️ Гайд и промпт: 1. Открываем Gemini 2. В Tools выбираем 🍌 Сreate Images 3. Вводим промпт, меняем [ГЕРОЙ] на героя желаемой вселенной: Сделай комикс стрип как [ГЕРОЙ] вайбкодит-создает приложение с помощью промптинга LLM, визуальный стиль должен соотвествовать оригинальному мультфильму. В комиксе нельзя использовать слово вайб. Текст комикса на РУССКОМ языке. 4. Через минуту наслаждаемся шедевром и делимся им в комментариях 👇
Nano Banana Pro доступна в: 🆓 LM Arena 🆓 Gemini (в бесплатном тарифе доступно 5 генераций в сутки) 🆓 Felo.ai 🆓 zenmux.ai 💸 Gemini 💸 Flow (по подписке Gemini) 💸 AI Studio (по API ключу) 💸 Vertex AI (по API ключу)
🔥 Стоимость одной картинки по API: $0.24 за 4K и $0.134 за 1K. Имейте в виду: бесплатные сервисы оплачивают это из своего кармана, так что лимиты могут появиться в любой момент.
🔥 Пример реализации: Посмотрите в сторис @vibecod3rs, как ежедневный дайджест чата превращается в полноценный комикс
Заменит ли AI продуктовых дизайнеров? 🛌
Тема, которая активно обсуждается в дизайнерских чатиках и зачастую сопровождается всеобщей паникой такого масштаба, что неосознанно сам втягиваешься и становишься частью этого невроза.
Вот мой прогноз и мысли по этому поводу:
1️⃣ Уже сейчас мы с помощью аишек можем редачим тексты, генерить гипотезы, графику для проектов и делать еще много чего. Сразу возникает вопрос, а когда машина начнет рисовать макеты? Плохая новость: уже начала. Хорошая: делает очень плохо.
Важный нюанс заключается в том, что моделям нужно на чем-то учиться. “на чем-то” значит на средней температуре по больнице. Можно представить, какой результат получается, если 99% (из пушки по воробьям) интерфейсов это второсортный шлак с древним UI и устаревшими шаблонными патернами.
Нейросети еще долго на мой взгляд не смогут воспроизвести уровень условно дринкита, додо, лавки, аирбнб и других тир1 продуктов. Если вообще смогут…
2️⃣ Все равно нужен будет человек, способный фильтровать и принимать решения. Человек с хорошим вкусом, скиллами в промптах, насмотренностью на data-driven решениях, пониманием контекста и бизнес-целей. Все эти запросы при хайринге дизов и сейчас есть, просто инструментарий поменяется.
Сильные продакты кстати тоже супер шарят за UX (у них настоящий data-driven, а не демо-версия, которую обычно дизам приносят в виде результатов экспериментов), но у них, вероятно, все равно не будет важных дизайнерских скиллов и «глаз». Они тоже в состоянии напромптить норм интерфейс, но утилитарный, без лоска и эмоций. А бороться за внимание пользователя это наше будущее.
В разработке история похожая. Появляются курсоры, гроки и другие тулзы, которыми без технической экспертизы реально накодить себе что-то рабочее, но по сути это процесс строительства карточного домика под шаманские танцы («ну, авось, нормально делает»), неустойчивая конструкция без технадзора со стороны. Джун для разработки плагина будет не нужен, а экспертный консалтинг да.
Это миф, что любой обыватель нажмет на одну большую красную кнопку и получит классный результат. Получит хрень полную.
3️⃣ Пришел к выводу, что джунам будет еще тяжелее 😕. Если раньше достаточно было знать фотошоп, чтобы устроиться, то сегодня порог входа в профессию стал кратко выше. А сейчас еще и рынок трясет чутка, многие компании режут косты, менее охотно набирают новичков и стажеров (это трата ресурсов с долгосрочной перспективой) и все более тех, кто может помочь заработать здесь и сейчас.
В будущем AI заберет на себя те задачки, которые обычно отдавали джунам, производительность и эффективность на одного человека вырастет, вакансий станет меньше. И здесь замкнутая петля получается: джунов не нанимаем и не растим, потому что сеньор со всем инструментарием сможет работать за пятерых → новых кадров на рынке не будет, так как им не дают вкатиться. Это я сейчас очень сильно утрирую, но тенденция вроде логично звучит.
4️⃣ Победят самые самые приспособленные ребята, готовые адаптироваться к новым инструментам, среде, контексту. Сегодня вы учите фигму, а завтра будете учиться собирать интерфейс в веб-среде из реакт компонентов. 😭
[1/2] В Loki за 3 дня
Новая история в рубрике #КомуНадоТомуНадо
Я сейчас работаю в *некой очень большой корпорации*. Мы маленьким боевым Staff-отрядом ходим по разным отделам и тут и там сокращаем расходы на облачную инфраструктуру, оптимизируем пайплайны данных с помощью клод клода и разных самописных AI агентов, что-то выключаем и смотрим что никто не паникует и т.д.
Пару недель назад я наткнулся на одну команду, у которой годовой кост в долларах на AWS CloudWatch выражался в шестизначных (!!!) суммах. CloudWatch – это, по большей части, сервис логов + метрик, алертов. Логов, Карл!
80-90% этих костов у CloudWatch вызывает Grafana. Grafana - это сервис дашбордов. Там отрисовываются красивые визуально понятные метрики, таблички, статистики. В этой команде дашборды использовались как для анализа среднесрочных трендов, так и для оперативного реагирования на инциденты, просадки конверсий и подобного. Вообщем, некие очень важные метрики, на которые завязано много бизнес-вэлью.
Для понимания, CloudWatch снимает деньги за каждый запрос. При этом стоимость запроса пропорциональна объёму просканированных данных ($0.005 за GB) - сколько записей CW возвращает и какая логика запроса – это не влияет. Когда у вас десятки тысяч запросов в день и они суммарно сканируют сотни терабайтов данных в день, - то каждый месяц будет у вас выливаться в ооочень неприятную копеечку.
В Grafana каждая страница, как правило, имеет time range – период, который показан (например 7-14-30-90 дней), и refresh rate – частота обновления дашборда (например 1-15-30 минут или реже). И да, на каждый refresh Grafana отправляет новые запросы в CloudWatch. И да, любой пользователь может выбрать нужные ему time range и refresh rate, отличные от тех, что стояли по умолчанию. Хоть даже 60 дней.
Чтобы чем-то управлять, надо это измерять. У CloudTrail (сервиса для аудита всех действий в AWS, в том числе позволяет смотреть все запросы, которые делались к CloudWatch за день, причём бесплатно) – нет никакой информации, сколько по факту каждый запрос стоил, а также сколько GB он просканировал. Пришлось вспоминать ML, строить NNLS-регрессию на основе time range у запросов + групп логов к которой они обращались, чтобы “восстановить” сколько что стоило (в CloudTrail это сохранялось; у лог-групп +- равномерный объём данных на каждый день). Регрессия делала оценку с +-10-20% точностью на отложенной выборке. Для атрибуции запросов этого хватало.
Первые дни я пробовал собрать какие-то низковисящие плоды, типа поставить реже эти дефолтные refresh rate или сократить time range с пары недель на неделю. Эффект от этого был близкий к нулю: одни паттерны запросов стали реже, другие стали чаще. В сухом остатке ежедневный кост почти не поменялся, разве что в выходные значимо просел.
Хорошая новость: у этой команды, так повезло, чуть ли не единственной был запланирован через ~3 месяца переезд на Loki (и автоматический переброс логов из CloudWatch в Loki уже происходит). Loki – это ещё один сервис хранения логов (и запросов к ним), но в отличие от CloudWatch, Loki тебе (или твоим DevOps-ам) нужно поднимать самому. Ты платишь единственный кост: на хранение и сам сервер, а абсолютно все запросы в Loki оказываются бесплатные. Кстати, разработан той же командой, что написала Grafana, это всё часть одного стека.
Любопытствую у начальника отдела, мол, а что является блокером для переезда? Говорит что-то из серии, нет времени, нужно аллоцировать много ресурсов, у нас сложные дашборды, много метрик. Для понимания, язык запросов в CloudWatch сильно отличается от языка запросов в Loki (LogQL).
Если проблема упирается в написание кода – в 2026 это не проблема.
AWS Kiro vs Cursor: практический обзор после первого дня использования
Сегодня AWS выпустили Kiro (https://kiro.dev/) (спасибо @bogdanisssimo за новость). Это новый IDE для разработки с ИИ, который позиционируется как прямой конкурент Cursor (по сути это форк Cursor - даже не VSCode).
Решил поработать сегодня в нем. Тестировал на реальных задачах, которые у меня стояли сегодня. Спойлер: хватило меня на полдня.
Что впечатлило больше всего Agent Hooks: оказались настоящим прорывом. Честно скажу, это прямо моя боль была - поддерживать актуальную документацию в проекте при большой скорости разработки, хотя хуки решают и другие задачи. Они это закрыли - респект. Agent Steering: в несколько раз лучше /Generate Cursor Rules за счет структурированного подхода через категории product, structure и tech вместо рандомных Cursor Rules. Specs: по сути своей - Cursor To-dos v2 на стероидах. Что-то типа интегрированного claude-task-master (https://github.com/eyaltoledano/claude-task-master). Что понравилось еще: - удобное расположение Activity Bar (слева) - удобная панель Kiro в Activity Bar, где можно посмотреть все хуки, specs, mcp's, steering - streaming прямо в файл при генерации кода/plain-text (rules и др) - гибкая настройка того что можно делать агенту, а что нет (например: вызывать какие-то определенные MCP тулы без аппрува или выполнять какие-то команды)
Что не понравилось (но думаю это временно) Скорость генерации значительно уступает Cursor. Меня прямо выбесило это сегодня. По ощущениям что-то около 20-30 токенов в секунду. Но я конечно понимаю почему так происходит:
Во-первых, это первый день тестирования; Во-вторых, у них только Free версия и соответственно есть какие-то ограничения; В-третьих, и это уже следующий минус, у них всего две модели на выбор - Claude Sonnet 4 и 3.7. У Anthropic в принципе в последнее время наблюдаются проблемы со скоростью генерации, поэтому наверное это тоже повлияло.
Еще не понравилось, что нельзя загрузить собственные доки, но это частично компенсируется активным использованием context7 MCP (https://github.com/upstash/context7).
Перспективы Я считаю, что у IDE большие перспективы и вообще - это заявка на успех. Да, есть еще много вещей, которые им надо допилить чтобы быть хотя бы на равне с Cursor, но их килла-фичи перекрывают эти недостатки. Я готов пользоваться Kiro на постоянке как только они увеличат скорость генерации и добавят еще модели (думаю это решится добавлением подписки а-ля Pro за 20-30$ в месяц).
Интересно - быстрее Kiro допилят фичи/пофиксят баги или Cursor скопирует их фичи? 🤔
3 сайта с огромным количеством скиллов для AI-агентов, которые стоит изучить:
• skills.sh • skillhub.club • skillsmp.com
Не стоит слепо устанавливать скиллы — они могут содержать вредоносные инструкции. Лучше: открыть содержимое скилла в Claude Code, спросить что он делает и есть ли проблемы, пробежаться глазами самому — и только потом устанавливать. Или пересоздать скилл самостоятельно на основе идеи.
#ai #claude #tools
————————— Мысли Рвачева —————————
⚡️ Gemini 3.0!
ААААААА!
Слева 3.0, справа 2.5 на идентичном промпте.
Стрим через 25 минут: https://youtube.com/live/smBv-HmzcTs?feature=share