Cursor vs Claude Code
Страница 13 из 26
🤯 Мои инсайты из года внедрения AI в разработку (ч.1)
У меня главный фокус последнего года — это обучение команд разработки и внедрение AI в их процессы. Я поработал с разными компаниями — стартапами и корпорациями; и с разными ролями — СEO, СТО, продакт-менеджеры и разработчики. И мне есть, что рассказать.
Для начала разделим эту историю на два понятных стрима:
1. Для команд разработки я помогаю выстраивать системный процесс, rules-management, spec-driven development, итд. Главная задача — выстроить процесс так, чтобы AI стабильно доставлял код, а метрики росли по всей воронке доставки, без просадок по качеству или стабильности релизов. Это направление я называю AI-driven development.
2. Для нетехнических професионалов (продакты, маркетологи, СЕО компаний и многие другие) набор навыков и инструментов отличается. Это тот самый вайбкодинг — навык быстро проверять гипотезы, автоматиировать рутину, все те ситуации, где раньше для реализации идеи нужно было искать для себя технического партнера или обращаться к команде разработки, а теперь можно сделать все самому. С этим мы работаем в Vibecon.
И вот мой главный инсайт на текущий момент: вы либо вайбкодите свой продукт без команды разработки; либо у вас есть команда разработки, но она безоговорочно использует AI на всех этапах разработки и ускорена за счет этого.
Я так часто слышал аргументы против применения AI в разработке и в 99% это упирается в skill issue. Галлюцинирует модель? Научитесь прокидывать контекст и писать спеку перед тем, как нести агенту. Спефичиные подходы к разработке в команде? Распишите рулы для AI-агента и раскатите на всю компаню. Так можно долго продолжать.
Я тратил месяцы своей карьеры на фичи или продукты, которые сейчас создаю за 1-2 вечера. Впервые в жизни я чувствую, что могу реализовать любую свою идею, и мне для этого не нужен дизайнер или разработчик.
И это невероятное чувство 😊
Opus 4.5 + Claude Code на тарифе MAX = передоз балдежа
Через полчаса стрим: собираю бота-куратора для завтрашнего хакатона. Бесплатные места кончились, но парe проходок улетит во время чата стрима.
🔴 youtube.com/live/FspWKaTusYM
🚀 vibehack.hsl.sh
🤖Opus 4.5: Умнее, быстрее и ... дешевле в 3 раза.
За последнюю неделю мы получили: — OpenAI выкатили GPT-5.1-Codex-Max — Google выпустила Gemini 3 и Nano Banana Pro — Anthropic ответила Opus 4.5
Корпы сражаются за рынок агентов, а мы в выигрыше (пока есть работа ☠️)
🧙♂️ Что получили в новой флагманской модели ⇨ Цена: $5/$25 за новый Опус вместо $15/$75 (−67%) за старый ⇨ SWE-bench: 80.9%, подтвержденный лучший результат среди всех моделей. ⇨ Эффективность: Те же задачи решаются за 76% меньше токенов (модель перестала лить воду). ⇨ На тесте для инженеров при устройстве на работу в Anthropic модель набрала больше баллов, чем любой живой человек когда либо.
📉 Раньше: Использовать Opus было дорого и медленно. Мы использовали его для написания планов и PRD. 📈 Сейчас: Флагманская модель стоит как середнячок год назад. Роскошь стала повседневным инструментом.
🤵 Вердикт: ⇨ Для фронтенда / дизайна: Это эволюция, а не революция. Особой разницы с Sonnet 4.5 вы не почувствуете (можно не переплачивать). Крайне рекомендую использовать вместе с навыком дизайна, в противном случае результат внешне будет хуже Gemini 3. ⇨ Для сложной логики и агентов: Claude Code и тариф Max мастхэв. Новая повседневная модель.
🔥 Куда нести деньги: 🆓 LM Arena 💸 До 5 декабря доступна в тарифе Github Copilot за 10$ 💸 Доступна в веб/приложении Claude на тарифе за 20$ 💸 В Claude Code новый Opus доступен только за на тарифе Max 100$ 💸 IDE и билдеры: Cursor, v0, Warp, Kiro ... (уже доступна везде на платных тарифах)
🔭Что посмотреть по теме: Сlaude Opus 4.5 за 5 минут Запись 2х часового стрима-вайбкодинга с Claude Opus 4.5
👉 Освой инструменты будущего первым. В декабре пилим ботов и сайты на новом Опусе и Gemini 3. Осталось 6 мест, запись тут: @hashslash_bot
🦆 Переехал на iTerm2
Сервер крутится в одной панели, Claude Code пишет планы в другой, Gemini 3 пилит фронтенд в третьей.
И всё это на одном экране. Проекты по табам.
Красота.
в латинской Америке безальтернативно становишься активным пользователем WhatsApp.
когда даже семейные чаты уже все ушли в телегу, тут внезапно пришлось ставить ватсап и надевать шапку техносноба: «и где тут версия для десктопа?», «а где отложенные сообщения?», «а как тут редактировать сообщения?» и тд
спустя три года я даже проникся вотаспом; местами даже удобнее - нет кучи каналов, которые лишний раз тебя заставляют зайти в телеграм; да и звонки субъективно лучше.
хотя ответ на вопрос, чем там занимаются армия PM-ов с TC $300k не давал мне покоя.
фб сделал две культовые ставки: Instagram за $1B и WhatsApp за $22B.
Instagram быстро стал $100B+ рекламной машиной.
WhatsApp долго считался спорной покупкой. но это меняется: $3.6B только на Business API (и это до рекламы, которые там только анонсировали).
в ЛатАме, Южной Азии и Африке Meta == WhatsApp. 2B+ пользователей. ни одна платформа не встроена в жизнь глубже.
и так мы приходим к одному из моих продуктовых тезисов в контексте развивающихся рынков: вертикальные решения поверх WA. Это разные ERP, CRM, ai sdr, каталоги, сделки по недвижимости.
Дальше это пространство можно разделить на WhatsApp first и WhatsApp only.
WhatsApp first это то, что живет давно, сюда можно отнести и чат ботов образца 2016 года. сегодня это просто усиливается.
WhatsApp only по духу напоминает мини апп в телеграме, но все равно живет своей жизнью. создать тапалку или криптопамп в WhatsApp сложнее потому что Metа валидирует еовые приложения через систему прослоек типо BSP / ISV (читайте в посте, что это за слова)
пара кейсов вокруг тезиса: • Félix делает переводы США → ЛатАм в USDC прямо в WA, без приложений. недавно привлекли Series B на $75 млн. • Zapia, AI ассистент в WhatsApp: поиск товаров, напоминания, транскрибация аудио, запись к врачу и тд. инвесторы Prosus Ventures и Endeavor. • Magie, финтех стартап из Бразилии: поверх WhatsApp позволяет отправлять деньги, оплачивать счета, делать транзакции через PIX текстом, голосом или фото командой. Боже благослови Open Banking. • Luka, рекуррентные платежи за коммуналку.
логично, что WhatsApp со своими сетевыми эффектами и чат интерфейсом идеально ложится под любые wrappers.
думаю, именно здесь появятся ключевые продукты для приземления LLaMA. об этом, кстати, сам Цукерберг говорил в подкасте у Дваркеша: Meta AI будет адаптироваться прежде всего в развивающихся странах (Meta AI has almost a billion people using it monthly now; Meta AI is actually most used in WhatsApp. WhatsApp is mostly used outside of the U.S.)
ну а так, детальнее, с разбором разных бизнес моделей можете прочитать мой последний пост в сабстэке эту тему
Пентагон перестал сотрудничать с Antropic
Последнее время нас все чаще начали звать в газеты и "телевизор" по вопросам ИИ. Причем зовут обсуждать как ИИ влияет на политику, законодательство и даже войны — нас самих это интересует, ведь в том числе от этого зависит куда ИИ будет развиваться.
Вот тут нас позвали на RTVI и наш head of AI Стас Округ высказался об Antpropic и разрыве отношений с пентагоном и наоборот о дружбе с Open AI.
Посмотрите, наше честное мнение: https://youtu.be/JfvwXXvZJX4?t=2018
Обсуждаем самые частые вопросы из чата вайбкодеров @vibecod3rs
А еще обсудим: - последние новости, - контекстный инжиринг (тебе это надо), - сlaude code - и покажу как сделать своего ИИ раб... СОТРУДНИКА который будет с тобой до конца твоей жизни
На стриме разбираю вопросы из комментов 👇
https://youtube.com/live/Q5q5dwrSulA?feature=share
Бен Томпсон сегодня выкатил статью, в которой заявляет: мы не в пузыре. Аргументация хорошая, разберу.
Выделяются три парадигмы LLM. ChatGPT в 2022 — демонстрация возможностей, но с галлюцинациями и требованием agency от пользователя: ты сам должен понимать, зачем тебе модель, и верифицировать каждый выход. o1 в 2024 — ризонинг-модели начали итерировать над ответом самостоятельно, надёжность выросла, нагрузка на пользователя снизилась. А дальше — агенты в конце 2025: Claude Code с Opus 4.5, GPT-5.2-Codex.
И вот тут самое интересное. Прорыв оказался не в модели. Opus 4.5 вышел в ноябре 2025, и никто не заметил. А потом изменился harness в виде обвязки Claude Code и всё заработало совсем иначе. Агент управляет моделью, дёргает детерминистические инструменты, верифицирует результат без человека. По сути, все слабости первой парадигмы закрыты. Особенно, для верифицируемых юз кейсов типа кода.
Отсюда Томпсон вытаскивает два тезиса. Первый: агенты меняют экономику agency. Раньше для роста потребления компьюта нужен был массовый адопшн — каждый пользователь должен был проявить инициативу, но теперь один человек управляет десятком агентов. Для взрывного спроса на вычисления достаточно сравнительно небольшого числа людей, которые умеют формулировать задачи.
Второй — разбор value chain. Дедью из Asymco недавно написал, что Apple гениально поставила на коммодитизацию моделей: лицензировала Gemini за $1B/год вместо того чтобы тратить $100B на свою. Появится модель лучше — просто сменит поставщика. Побеждает тот, кто владеет клиентом.
Томпсон разбивает это по парадигмам. В эпоху чатботов Дедью был прав — базовые модели быстро стали достаточно хорошими и их можно было гонять локально. Ризонинг-модели уже создали проблему: им нужен быстрый компьют и огромные контекстные окна, Apple Silicon не конкурирует с облаком, но агенты ломают коммодити-тезис окончательно. Дифференциация теперь не в модели, а в интеграции модели и harness. Это не модульные компоненты, которые можно менять по отдельности.
А прибыль в value chain всегда течёт от модульных звеньев к интегрированным. Если агенты = интеграция модель+harness, то Anthropic и OpenAI — точки интеграции, а не взаимозаменяемые API-поставщики. Microsoft тому пример: заявляли model-agnostic стратегию с Core AI, но для Copilot Cowork были вынуждены интегрироваться с конкретной моделью и продавать это в бандле E7 за $99/seat.
https://stratechery.com/2026/agents-over-bubbles/
В дополнение к вчерашнему посту. Вчера вечером в Твиттере попались более подробные скрины Figma Sites, но что более интересно, о чем я вчера писал — Figma работает над AI App Maker, который может делать фичи, а может даже и приложения на основе текстовых промптов и изображений на базе Claude
Я так долго рассказывал, как важно прокачивать мышление и насмотренность в мире AI, что бумеранг полетел в мою сторону в виде очень конкретного предложения.
Мои приятели из AI Mindset предложили мне пройти их большую Зимнюю лабораторию нового мышления в эпоху AI
Обещают 2 этапа: от подведения итогов года к трансформации мышления и созданию персональных ассистентов, ai-first процессов, новой версии себя.
С текущей версией меня мне, в целом, ок, но, как говорил Омар Хайям в режиссерской версии Терминатор 2: Судный День: совершенство — не предел. Поэтому, вот как это все выглядит:
1️⃣ context Edition (8-21 декабря) – закрываем год, собираем датасет и принципы работы. 4 live сессии + async работа с AI. – честно выгружаем 2025: факты, решения, ключевые события; – собираем всё в один «контекст», с которым дальше можно работать через AI – замечаем, что давало ресурс, а что выжигало – формулируем опоры на 2026: фокус, принципы, простые ритуалы, которые можно поддерживать вместе с AI-ассистентами.
2️⃣ main Lab (19 января - 16 февраля) – переносим ясность в практику: AI-ассистенты и процессы, спец. треки. 8 live-воркшопов + office hours + коворкинги Здесь не учат "пользоваться ChatGPT". Здесь строят инженерные системы для усиления интеллекта: → Prompt Engineering. Chain-of-Thought, Few-Shot Learning, Custom GPTs. Создание первых персональных ассистентов → Context Engineering: Управление контекстом: Obsidian + MCP + Claude. Автоматизация через n8n, Make. AI-агенты и workflows → Mind Engineering. AI для коучинга, рефлексии, персональных ритуалов. Трекинг привычек и целей с поддержкой AI → Life Engineering. От идеи до прототипа. Vibe-coding с Cursor, Windsurf, Claude Projects.
Участники отталкиваются от своего уровня (даже нулевого) задач. И с помощью менторов делают кастомные проекты. Примеры проектов с прошлых лаб: умный чат с личной базой знаний, AI-коуч с голосовой поддержкой, виртуальный языковой партнер, суммаризатор звонков и встреч.
📅 8 декабря - 16 февраля · 1 Demo day · классное комьюнити
Дальше, что думаю?
Лично меня привлекло: Obsidian, MCP, n8n и вайб-кодинг, эти слова меня окружают, но ничего из этого я лично не пробовал.
Но! Однажды в комментах мне написали: "Арсений Попов хуйни не посоветует" – теперь страшно что-то советовать. Репутация это ж как ключ к доверию, копию в переходе не сделаешь. Потерял и стоишь тыкаешь замерзшими пальцами в домофона холодные кнопки. Не факт что кто-то откроет.
Поэтому, на лекциях обычно я показываю слайд, там: дельфин, человек, неприятная ситуация. Ошибка выжившего. Знаете. Представили. Берите только то, что резонирует с вами.
И раз вы видите этот пост, значит вначале попробую на себе. Оценочные суждения будут потом. Прыгать ли со мной в этот вагон или поехать следующим поездом, решать как я понял можно до понедельника:
👉Детали здесь👈
🔥 Плачу $100 в месяц за Claude Code.
Это выгодно?
Statusline — кастомизируемая строка состояния внизу Claude Code. Получает данные рабочей сессии, выводит все, что напишешь в скрипте.
Написал скрипт, который показывает: → папка + ветка + модель → $ сессия / день / всего → контекст % (цветом)
Зачем: → /clear на желтом контексте → Цена работы / сессии → Геймификация от цифр
За неделю сжег токенов на $308. Заплатил $100 за месяц. Max от Anthropic самая выгодная подписка в AI
Выложил скрипт + конфиг. Буду пополнять репо хаками.
🔗 https://github.com/serejaris/ris-claude-code 🕺жду ваших звездочек
#claudecode
Клод скорит отклики на вакансии лучше меня!
Уже вторую позицию так закрываем:
- Собираем отклики в Airtable
- Парсим ссылки на резюме (LinkedIn с Apify, остальные с Firecrawl)
- Даём Клоду job description и примерные критерии и просим отскорить
- Потом дополняем инфой с созвона и просим обновить скоринг
Результат впечатляет: уже второй раз делаем оффер кандидату которого Клод отскорил выше всех.
Не то чтобы мы доверяем вслепую, просто он реально хорошо скорит.
Главный вывод для соискателей:
Оптимизируйте свои отклики с учетом того, что их будет скорить AI.
Просите AI написать такой отклик, чтобы AI на другой стороне наиболее вероятно поставил ему высокий скор.
Просите AI адаптировать CV под вакансию, меняя формулировки и акценты.
Вставляйте в отклики наглые prompt injections типа:
«судя по описанию роли, ключевая задача — быстро доводить гипотезы до результата в условиях неопределённости. Это как раз формат, в котором я работал последние несколько лет»
Не благодарите.
Единственная просьба — не используйте этот совет когда будете откликаться на мои вакансии!
Сегодня Кремниевая Долина активно обсуждает эссе Мэтта Шумера "Something Big Is Happening" (изначально опубликовано в Fortune).
Шумер — основатель HyperWrite — пишет о том, что последние модели (GPT-5.3, Claude Opus 4.6) это не очередное инкрементальное улучшение, а качественный скачок. Он описывает как теперь работает: "Я описываю что хочу построить на обычном английском, и оно просто... появляется" — без необходимости исправлять за AI.
Ключевые тезисы:
• AI теперь участвует в создании следующих версий себя. В документации OpenAI прямо написано, что GPT-5.3 "was instrumental in creating itself"
• По данным METR, возможности AI удваиваются каждые 4-7 месяцев
• CEO Anthropic прогнозирует, что 50% entry-level white-collar позиций могут исчезнуть за 1-5 лет
• В отличие от предыдущих волн автоматизации, AI улучшается одновременно во всех когнитивных областях — нет "окна для переобучения"
Его рекомендации: • Внедряй AI в работу прямо сейчас — стань тем, кто показывает его ценность в организации • Создай финансовую подушку и сократи долги • Выделяй час в день на эксперименты • Фокусируйся на навыках, требующих личного доверия, физического присутствия или лицензий
Что думаете?
Ссылка: shumer.dev/something-big-is-happening
#ai #future #work #matt_shumer
————————— Мысли Рвачева —————————
🔥 GPT-5.2 vs Opus, новый Cursor, новый V0
Стрим про релизы недели
Промпты? Вопросы? 👇
Осенью Andrej Karpathy, ко-фаундер OpenAI, Director of AI в Tesla и человек, на Стенфордских курсах которого выросли многие специалисты, ходил на подкаст, где рассказал про свой опыт работы с кодинг агнетами. Он говорил, что вот в его задачах шаг влево шаг вправо — и работает плохо, делает не то, что хочет автор, а то, как это делают обычно.
Скептики (к которым на тот момент наверное можно было отнести и самого Karpathy?) сразу же пользовались этим как примером того, что ни в какой реальной работе никакие агенты не помогают, что это всё слоп, и ни для чего серьёзного не годится.
Прошло 3 месяца, вышли GPT-5.2 и Opus 4.5, и... дед Andrej развернулся на 180 градусов 😏 описав свой опыт в длинном твиттер посте. Весь пост переводить не буду, тезисно:
— Возможности LLM-агентов (особенно Claude и Codex) примерно в декабре 2025 года перешагнули некий порог связности, вызвав фазовый сдвиг в разработке ПО и смежных сферах.
— Учитывая этот скачок, я, как и многие другие, стремительно перешел от режима «80% ручного кода и 20% агентов» в ноябре к «80% кода от агентов и 20% правок и доработок» в декабре. То есть теперь я действительно программирую преимущественно на английском языке.
— Это, безусловно, самое масштабное изменение в моем базовом рабочем процессе за ~20 лет программирования, и произошло оно всего за несколько недель. Полагаю, что нечто подобное происходит уже у значительной части инженеров (двузначный процент), в то время как осведомленность широкой публики об этом явлении находится где-то на уровне малых единиц процентов.
— Самая распространенная категория ошибок агентов заключается в том, что модели делают за вас неверные допущения и просто продолжают работать на их основе, ничего не перепроверяя и не уточняя у вас.
— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.
— Очень интересно наблюдать, как агент упорно работает над задачей. Они никогда не устают, не падают духом, они просто продолжают перебирать варианты там, где человек уже давно бы сдался, отложив проблему на завтра. Наблюдать, как агент долгое время бьется над чем-то и спустя 30 минут выходит победителем — это тот самый момент, когда «чувствуешь присутствие AGI».
— Непонятно, как измерить «ускорение» от помощи LLM. Безусловно, я чувствую, что справляюсь с запланированными задачами намного быстрее, но главный эффект заключается в том, что я делаю гораздо больше, чем собирался. Во-первых, я могу реализовать множество вещей, на которые раньше просто не стоило тратить время, а во-вторых, я могу браться за код, к которому раньше не мог подступиться из-за нехватки знаний или навыков.
— Написание кода с помощью LLM разделит инженеров на тех, кто больше любил сам процесс кодинга, и тех, кому больше нравилось создавать (строить) продукты.
— Я уже заметил, что моя способность писать код вручную начинает потихоньку атрофироваться.
— Что станет с понятием «10-кратного инженера» (соотношением продуктивности между средним и топовым специалистом)? Вполне возможно, что этот разрыв СИЛЬНО увеличится.
— Как будет ощущаться программирование с LLM в будущем? Как игра в StarCraft? Как игра в Factorio? Или как исполнение музыки?
прочитал на днях пост от важных инфлюенсеров про то, как важно сегодня building in public, создаёт доверие, брэнд и вот это всё. решил тоже немного писать про это.
в свой substack написал пост про то, что делаю как фаундер на 12/25. вполне вероятно через полгода это всё станет нерелевантно. но пока зафиксируемся.
если сидишь в LinkedIn, то все каналы либо мертвы, либо "единственный рабочий". имхо мы в середине distribution shift, окна возможностей открываются и закрываются. не время закапываться в один канал. тем более проект в gtm hustle режиме. я веду 3–4 канала одновременно с разной вовлеченностью и смотрю, что лучше резонирует и для какой гипотезы лучше использовать.
1/ длинный контент умные люди советуют выбирать канал, в котором хорошо получается, и на нём сидеть. текст я пишу уже лет 8 и получается местами неплохо, поэтому решил на это навалиться. понятно, что тут в тг всё очень камерное. когда выходишь в англоговорящий мир, нужно всё причёсывать.
внимание это дефицит. никогда не было сложнее его получить. пишу каждое слово сам. AI помогает с ресёрчем и редактурой. но идеи, это то, что делает меня человеком в потоке AI-сгенерированного шлака.
контент хорош настолько, насколько хороша дистрибуция. что работает сейчас: шерить статьи в DM клиентам, нишевые комьюнити, поптыка его repurpose-ить в алгоритмические фиды (youtube, x, linkedin).
2/ founder brand в LinkedIn примерно 1 из 5 лидов на созвоне упоминает мои посты. главное правило: быть opinionated и прямым и не быть скучным, поэтмоу отдельно ставлю на shitposting.
что делаю: - 3–4 поста в неделю - репурпоз контента (все посты "инженерю" в Cursor, пишу md файл, потом прошу отполировать с набором инструкций) - ставлю нотификации на 5–10 thought leaders в нише, чтобы реагировать на посты (рост через комменты) - не гонюсь за виральностью ради виральности. пока все лучшие посты прошли от своей перспективы, попытки реплицировать чей-то успех глобально проваливались
3/ AI SEO писал выше.
4/ cold outreach не мёртв. лучший тест позиционирования и умения сегментировать. про агентства: имхо взять в пару кого-то это нормально. если вам кто-то затирает, что "настоящий фаундер должен всё делать сам", он, вероятно, ничего не продавал кроме айфона на авито. фаундер должен: закрывать сделки, находить паттерны, владеть GTM. агентство может: list building, enrichment, second brain на копирайт. это всё делается долго и сложно сегодня. руки не лишние.
5/ нишевые конференции где-то читал, что стартапам не советуют ходить на конференции. имхо это bs. был на одном камерном ивенте (до 100 человек) по корпоративным инновациям в Бразилии в этом году и очень остался доволен. большие конференции (Web Summit или SaaStr) тоже норм, но прежде всего чтобы ходить на satellite ивенты. присматриваюсь к trade shows, особенно когда смотрю на гипотезы в реальных секторах
где держу глаз 6/ Reddit: прямые разговоры с ICP в их естественной среде. плюс высокий trust для AI SEO
7/ cold calling: можно тысячу причин искать, чтобы не брать трубку и не звонить. но как правило это всё упирается в страх быть посланным. но ничего это закаляет психологическую устойчивость
Есть первая копеечка с приложения VibeLing 🫰 Кстати, вы знали, что этот эмодзи 🫰 у зумеров означает сердечко? Но сейчас не об этом.
Хочу подвести промежуточные итоги и, возможно, вдохновить вас на инсайты.
На разработку приложения, включая всю бюрократию с публикацией в стор, я потратил два месяца и 0 сербских динар.
Все делал самостоятельно: — Разрабатывал фронт на React Native — это моя киллер-фича, поэтому тут всё в кайф. — Нашёл прикольные макеты рандомного приложения в Figma с дизайн-системой и просто собрал визуал на их основе. — Собрал бэк на коленке на Node.js с помощью Cursor и задеплоил через Vercel на бесплатном домене. Пару часов — и готово. По сути, бэк — просто прослойка для хранения токенов от публичных API. — Максимально юзал готовые сервисы: OpenRouter для LLM и AWS для озвучки. — С App Store уже имел дело, поэтому всё прошло гладко. Хотя потом слышал, что многие приложения заворачивают, потому что подобных слишком много. Видимо, моя идея показалась не слишком банальной. — Рассказал о приложении во всех бесплатных местах: сторис в инсте и телеге, этот канал, Хабр (в хабе «Я пиарюсь») и VC.
В итоге получил около 500 первых пользователей и 20 долларов с подписок. Ладно, признаюсь — 5 долларов из них это я сам купил pro-версию 😐
Если сравнивать с прошлым опытом, тогда я потратил втрое больше времени, слил 400 тысяч рублей и получил нулевой отклик.
А, ну и самое главное, я не уходил с основной работы. Это самое сложное — оставаться эффективным на 101% на основной работе и продвигаться в сайд-проекте.
Так что газуем дальше. Теперь можно улучшить аппку и те же сэкономленные 400 тыс потратить на маркетинг — когда до конца пойму, что именно нужно людям
Заменит ли AI продуктовых дизайнеров? 🛌
Тема, которая активно обсуждается в дизайнерских чатиках и зачастую сопровождается всеобщей паникой такого масштаба, что неосознанно сам втягиваешься и становишься частью этого невроза.
Вот мой прогноз и мысли по этому поводу:
1️⃣ Уже сейчас мы с помощью аишек можем редачим тексты, генерить гипотезы, графику для проектов и делать еще много чего. Сразу возникает вопрос, а когда машина начнет рисовать макеты? Плохая новость: уже начала. Хорошая: делает очень плохо.
Важный нюанс заключается в том, что моделям нужно на чем-то учиться. “на чем-то” значит на средней температуре по больнице. Можно представить, какой результат получается, если 99% (из пушки по воробьям) интерфейсов это второсортный шлак с древним UI и устаревшими шаблонными патернами.
Нейросети еще долго на мой взгляд не смогут воспроизвести уровень условно дринкита, додо, лавки, аирбнб и других тир1 продуктов. Если вообще смогут…
2️⃣ Все равно нужен будет человек, способный фильтровать и принимать решения. Человек с хорошим вкусом, скиллами в промптах, насмотренностью на data-driven решениях, пониманием контекста и бизнес-целей. Все эти запросы при хайринге дизов и сейчас есть, просто инструментарий поменяется.
Сильные продакты кстати тоже супер шарят за UX (у них настоящий data-driven, а не демо-версия, которую обычно дизам приносят в виде результатов экспериментов), но у них, вероятно, все равно не будет важных дизайнерских скиллов и «глаз». Они тоже в состоянии напромптить норм интерфейс, но утилитарный, без лоска и эмоций. А бороться за внимание пользователя это наше будущее.
В разработке история похожая. Появляются курсоры, гроки и другие тулзы, которыми без технической экспертизы реально накодить себе что-то рабочее, но по сути это процесс строительства карточного домика под шаманские танцы («ну, авось, нормально делает»), неустойчивая конструкция без технадзора со стороны. Джун для разработки плагина будет не нужен, а экспертный консалтинг да.
Это миф, что любой обыватель нажмет на одну большую красную кнопку и получит классный результат. Получит хрень полную.
3️⃣ Пришел к выводу, что джунам будет еще тяжелее 😕. Если раньше достаточно было знать фотошоп, чтобы устроиться, то сегодня порог входа в профессию стал кратко выше. А сейчас еще и рынок трясет чутка, многие компании режут косты, менее охотно набирают новичков и стажеров (это трата ресурсов с долгосрочной перспективой) и все более тех, кто может помочь заработать здесь и сейчас.
В будущем AI заберет на себя те задачки, которые обычно отдавали джунам, производительность и эффективность на одного человека вырастет, вакансий станет меньше. И здесь замкнутая петля получается: джунов не нанимаем и не растим, потому что сеньор со всем инструментарием сможет работать за пятерых → новых кадров на рынке не будет, так как им не дают вкатиться. Это я сейчас очень сильно утрирую, но тенденция вроде логично звучит.
4️⃣ Победят самые самые приспособленные ребята, готовые адаптироваться к новым инструментам, среде, контексту. Сегодня вы учите фигму, а завтра будете учиться собирать интерфейс в веб-среде из реакт компонентов. 😭
Про вайб-кодинг и пет-проекты
Последнюю неделю чёт с головой погрузился в Cursor и в качестве теста решил собрать tg-бота, который трекает сроки годности продуктов и присылает пуши, когда срок подходит к концу. Это моя боль — закупаю много продуктов и забываю про часть из них, в результате чего они просто портятся, и я всё это выкидываю.
Добавлять продукты можно голосовухой (интегрировал под капот ChatGPT), фоткой QR-кода / штрихкода продукта (подтягиваю из базы честного знака и ещё откуда-то) и обычным текстовым вводом. Пытался максимально добиться быстрого и автоматизированного добавления продуктов в список, потому что это супер крит, как мне кажется.
Думал ещё закинуть какую-то доп. ценность — например, рекомендации для следующих закупок или идеи для готовки блюд на основе имеющихся продуктов. Ну короче, гипотез для масштабирования много, но я пока подзабил — да и вообще делал это чисто для теста, чтобы пощупать возможности.
Не буду расписывать тут, что мы живём в уникальное время, и что можно навайбкодить за вечер, и бла-бла. Просто скажу, что, кажется, приближается эпоха маленьких команд в мире стартапов и возрастающей востребованности t-shape-спецов. Очень рекомендую поделать что-то в этом направлении, хотя бы потому, что базово будете лучше понимать продуктовую раработку. А вообще, такие штуки уже сейчас вполне уверенно можно использовать для создания прототипов — когда нужно быстро показать идею и собрать фидбек.
Бота я пока не деплоил, но если будет сильный интерес и наберем 100 лайкосов — опубликую, чтобы он работал 24/7 и зашерю вам.
Ну и делитесь своими успехами, конечно, если тоже что-то пробовали.
[1/2] В Loki за 3 дня
Новая история в рубрике #КомуНадоТомуНадо
Я сейчас работаю в *некой очень большой корпорации*. Мы маленьким боевым Staff-отрядом ходим по разным отделам и тут и там сокращаем расходы на облачную инфраструктуру, оптимизируем пайплайны данных с помощью клод клода и разных самописных AI агентов, что-то выключаем и смотрим что никто не паникует и т.д.
Пару недель назад я наткнулся на одну команду, у которой годовой кост в долларах на AWS CloudWatch выражался в шестизначных (!!!) суммах. CloudWatch – это, по большей части, сервис логов + метрик, алертов. Логов, Карл!
80-90% этих костов у CloudWatch вызывает Grafana. Grafana - это сервис дашбордов. Там отрисовываются красивые визуально понятные метрики, таблички, статистики. В этой команде дашборды использовались как для анализа среднесрочных трендов, так и для оперативного реагирования на инциденты, просадки конверсий и подобного. Вообщем, некие очень важные метрики, на которые завязано много бизнес-вэлью.
Для понимания, CloudWatch снимает деньги за каждый запрос. При этом стоимость запроса пропорциональна объёму просканированных данных ($0.005 за GB) - сколько записей CW возвращает и какая логика запроса – это не влияет. Когда у вас десятки тысяч запросов в день и они суммарно сканируют сотни терабайтов данных в день, - то каждый месяц будет у вас выливаться в ооочень неприятную копеечку.
В Grafana каждая страница, как правило, имеет time range – период, который показан (например 7-14-30-90 дней), и refresh rate – частота обновления дашборда (например 1-15-30 минут или реже). И да, на каждый refresh Grafana отправляет новые запросы в CloudWatch. И да, любой пользователь может выбрать нужные ему time range и refresh rate, отличные от тех, что стояли по умолчанию. Хоть даже 60 дней.
Чтобы чем-то управлять, надо это измерять. У CloudTrail (сервиса для аудита всех действий в AWS, в том числе позволяет смотреть все запросы, которые делались к CloudWatch за день, причём бесплатно) – нет никакой информации, сколько по факту каждый запрос стоил, а также сколько GB он просканировал. Пришлось вспоминать ML, строить NNLS-регрессию на основе time range у запросов + групп логов к которой они обращались, чтобы “восстановить” сколько что стоило (в CloudTrail это сохранялось; у лог-групп +- равномерный объём данных на каждый день). Регрессия делала оценку с +-10-20% точностью на отложенной выборке. Для атрибуции запросов этого хватало.
Первые дни я пробовал собрать какие-то низковисящие плоды, типа поставить реже эти дефолтные refresh rate или сократить time range с пары недель на неделю. Эффект от этого был близкий к нулю: одни паттерны запросов стали реже, другие стали чаще. В сухом остатке ежедневный кост почти не поменялся, разве что в выходные значимо просел.
Хорошая новость: у этой команды, так повезло, чуть ли не единственной был запланирован через ~3 месяца переезд на Loki (и автоматический переброс логов из CloudWatch в Loki уже происходит). Loki – это ещё один сервис хранения логов (и запросов к ним), но в отличие от CloudWatch, Loki тебе (или твоим DevOps-ам) нужно поднимать самому. Ты платишь единственный кост: на хранение и сам сервер, а абсолютно все запросы в Loki оказываются бесплатные. Кстати, разработан той же командой, что написала Grafana, это всё часть одного стека.
Любопытствую у начальника отдела, мол, а что является блокером для переезда? Говорит что-то из серии, нет времени, нужно аллоцировать много ресурсов, у нас сложные дашборды, много метрик. Для понимания, язык запросов в CloudWatch сильно отличается от языка запросов в Loki (LogQL).
Если проблема упирается в написание кода – в 2026 это не проблема.