BOGDANISSSIMO
@bogdanisssimo·Фаундер
AI-саммари
Строит vibe.dating (AI для знакомств, 90K+ скачиваний) — и параллельно заходит в крупные корпорации боевым Staff-отрядом: за 3 дня перевёл Grafana с CloudWatch на Loki, сэкономив команде шестизначные годовые косты, попутно придумав backfill-хак, который DevOps объявили «невозможным». 9000 часов логов в Session доказали ему, что постоянство бьёт интенсивность, а одна фокусная задача лучше распыления; с приходом агентов убеждён, что ценность документации и CI/CD выросла в 20 раз — Claude Code ведёт читаемый дневник гипотез с промежуточными срезами, а Opus 4.6, по его счёту, просто выигрывает у GPT 5.4. Claude Code у него везде: remote-control сессия переброшена на телефон, голос через Wispr Flow надиктовывает задачи прямо на прогулке с MacBook в руках, Todoist через MCP доступен независимо от репозитория, мультиагентный режим гоняет несколько задач параллельно, а каждый вечер — свежий Claude-дашборд вместо новостного потока.
Build a $100M app, please make no mistakes
Кстати, с мобилки намного удобнее чем с консоли просмотреть результат работы каждого агента
https://youtu.be/EfmVRQjoNcY?si=ncR2nqzfiPjarSWI
Я люблю ходить когда думаю (в том числе в ожидании Claude Code), иногда я хожу прям с макбуком в руках. Возможность перебросить сессию на телефон и в Wispr Flow с мобильной версии надиктовывать что будет происходить в макбуке, пока все действия происходят непосредственно на нём – это киллер-фича для меня 🤤
Такой вайб кодинг нам нравится ещё больше. Следующий шаг: AR очки и возможность видеть терминалы Claude Code вокруг себя
Мужчины с Марса, Женщины с Венеры
В комментария к серии постов про Синдром Самозванца озвучили пожелание, раз уж я начал говорить о личном, о том, что волнует всех, но об этом почти никто не говорит, – раскрыть тему построения отношений
И вот сюрприз, за последний месяц я как раз созвонился с порядка 15 друзьями и коллегами фаундерами и не только, провёл с каждым мини-интервью, чтобы перенять их опыт, взгляд, best practices, что работает, а что нет. Я не планировал из этого делать серию постов в блог, но видимо придётся у каждого запросить разрешение поделиться его советами в анонимизированном/агрегированном виде
–––
А пока держите имбулечку: один из друзей посоветовал прочитать книгу "Мужчины с Марса, Женщины с Венеры", мол, прочитали вдвоём – 90% всех проблем и недопониманий как рукой сняло. В детстве я не любил читать книжки без картинок
Поэтому я – делюсь бесплатно идеей стартапа на $100M – попросил Claude Code в мультиагентном режиме прочитать и подробно проанализировать каждую главу, выписать ключевые идеи и по каждой главе сделать интерактивную визуализацию. Затем собрать их вместе. От результата охуеете
Рекомендую со своей второй половинкой внимательно пройтись по каждой странице "оживлённой книги", обсудить каждую идею, совет, повспоминать как тот или иной момент проявлялся именно в вашей жизни
Кстати можем устроить мини-челленж, пишите в комментарии именно под этой частью свою роль и проект (насколько позволяет NDA), а я или кто-то другой будем предлагать способы оценки экономического эффекта
Предложил в комментариях писать роли / проекты, чтобы получить грубую идею, как оценить свою ценность в деньгах
Доброволец №1: Промт-инженер образовательного интернет-портала для школьников
Как можно оценить в деньгах твою value:
Сценарий 1: если ты генерируешь контент с LLM
• оценка через альтернативы: бизнес мог бы нанять контент-специалистов / младших авторов / методистов и создавать единицы контента вручную. у таких специалистов есть некая ставка в час / в неделю / месяц + скорость производства 1 или 10 единиц контента
• если ты это делаешь в полу-автоматическом режиме, то мы ожидаем, что ты это делаешь быстрее и дешевле в пересчёте на единицу контента (возможно даже для того же объёма контента хватит 1-2 специалистов вместо 4-5 как раньше). скажем, раньше на контент тратилось 30-40% от выручки обучающей программы, сейчас 10%. дельта в 20-30% = твоя вэлью, принесённая платформе
Сценарий 2: если LLM с базой знаний - продукт сам по себе
• важно принять факт, что промпт-инженер отчасти похож на ML инженера: в обоих случаях у нас есть некий черный ящик – "данные+фичи+модель" или "база знаний+промпт+модель". мы можем менять каждую из компонент, пробовать другие модели, подкручивать фичи/промпт, пополнять базу знаний, получая то или иное изменение поведения модели. чтобы действовать не как слепой котёнок в чёрной комнате (и подкручивать промпты чтобы подкручиавать промпты, по интуиции), эту систему нужно покрывать теми или иными метриками: либо оффлайн (например собрать 100 пар запросов-ответов, прописанных экспертом), либо онлайн (метрики пользователей - CSI, NPS, доходимость курса, оценки, ретеншен именно AI-компоненты)
• онлайн метрики в свою очередь влияют на продление подписки (если у вас подписочная модель), на сарафанку (= бесплатные лиды), на бренд (= больше доверия, рост конверсии в оплату), на апсейлы (родителям хочется купить ребенку другие курсы на платформе). Если ты можешь показать, что твоя работа над промптами/базой знаний улучшила хотя бы одну из этих метрик - это и есть твоя value в деньгах
• если ничего из перечисленного не трекается, нужно начать с того, чтобы собирать эти данные, а не заниматься "invisible work", невидимой работой, которая не приносит измеримого результата
[5/5] Синдром Самозванца
Наконец короткий блиц тактических советов, что делать, если по тебе юнит-экономика расходится сейчас (советы актуальны до момента, когда AGI заменил людей на всех economically valuable jobs):
1. Конечно же продолжать читать мой блог
2. Много и фокусированно работать (книги "Deep Work", "Digital Minimalism")
3. Найти тех кто в чём-то лучше меня (по возможности, работать с такими бок о бок), быть в комнатах, где ты не самый умный – и изучать под микроскопом, как эти ребята принимают решения, как действуют, какие подходы используют, которые не используют ты? что они делают из того, что не делаешь ты? что они НЕ делают из того, что делаешь ты? где сокращают себе дорогу? В общем, не пренебрегай искать, спрашивать и анализировать, как другие до тебя решали подобные задачи
4. Перед тем, как что-то делать, хотя бы в самой грубой форме, пальцем в небо прикинуть математику / воронку / юнитку / аплифты. Сейчас, когда есть ChatGPT / Claude только ленивый не заберёт готовый ответ по теме, в которой он даже не шарит
5. Разобраться, что такое юнит-экономика и привить себе привычку постоянно её считать в любом сервисе / проекте, которыми занимаешься. Разобраться в методологии А/Б тестирования
6. Очень рекомендую из своего списка рекомендуемой литературы (кстати самый первый пост в блоге) прочитать "Цель", "Эссенциализм" и "High Output Management". Научиться мыслить теорией ограничений, воронками, боттлнеками и рычагами
7. Научиться не делать всё, что можно не делать (говорить "нет" / автоматизировать / делегировать). Избегать fake work, работы-ради-работы, иллюзии продуктивности, созвонов-ради-созвонов
8. Ставить амбициозные цели с точки зрения масштаба и сроков (как советует Илон Маск, чтобы я сам был уверен только на 50%, что мы её достигнем)
9. Всегда держи в голове конечную цель своей деятельности: будь тем каменщиком, которого если спросить "что делаешь?" ответит не "камни таскаю" или "деньги зарабатываю", а "строю дворец". Знать цель и видеть прогресс движения к ней – важный элемент внутренней целостности, которая сама по себе избавляет от синдрома самозванца (понимание к какому результату мы идём и как все наши вложения окупятся)
10. Помнить, что если у меня получилось, у тебя тоже получится
Пишите в комментариях, что бы вы дополнительно включили в список
И спасибо всем кто дочитал ❤️
[3/5] Cиндром Самозванца
Экстраполируя личный опыт, могу предположить, что среди разработчиков синдромом самозванца особенно ярко страдают ML инженеры: ты можешь 3-6 месяцев что-то строить, обучать, собирать какие-то пайплайны и совсем не факт, что они доедут до прода. Если что-то делает бекендер, какая-то информация будет выдаваться пользователю или не будет. Если что-то делает фронтендер, какая-то кнопочка будет нажиматься или не будет. Если что-то делает дата инженер и аналитик – какой-то дашборд будет рисоваться или не будет
Как пощупать результат работы ML инженера? – да хуй его знает, чем они там занимаются. Разговаривают на своём птичьем языке, понятный только другим MLщикам: оверфиты, фичи, пайплайны. Больше всех получают денег и меньше всех понятно, что они там делают и когда будет готов результат. Недоверие к MLщикам/DSам растёт экспоненциально, особенно если ты занимаешь чуть ли не единственную data-роль в компании и не совсем понимаешь, с чего нужно начинать выстраивать data-driven культуру в компании
Собаки лают на то, что не понимают – Гераклит
По статистике от Claude Research, от 48% до 85% ML/AI-проектов или не достигают продакшена, или не приносят ожидаемой бизнес-ценности. Вопреки ожиданиям, с ростом популярности GenAI и, казалось бы, "простоты внедрения", ситуация не улучшилась, а даже ухудшилась *pikachu face*
Из-за того, что к MLщикам со стороны бизнеса такое недоверие, по моим наблюдениям они сильно раньше, чем остальные разработчики вынуждены погружаться в бизнес-метрики, методологию A/B-тестирования и другие методы "внешней", "честной" оценки эффекта своей работы, выраженной в деньгах: сколько ты помог заработать или сколько ты помог сэкономить. Мы с Валерой 5 лет назад даже разработали целый практикум на 1200+ человек "Симулятор ML", нацеленный на то, чтобы помощь начинающим ML инженерам сократить гэп между ML-как-алхимией и ML-для-бизнеса, проложить мостик между обучением моделей и продуктизацией своего ML/AI решения
Кстати, неспроста, например, при "взрослом" ведении ML-проектов, обязательным этапом разработки является написания ML дизайн-документа. И как ни странно, уже второй-третьей секцией такого документа является оценка потенциального аплифта целевой (сколько денег заработает или сэкономит проект, в худшем и лучшем случае - при той или иной стадии масштабирования?), бюджета на команды (сколько недель/месяцев займёт разработка и R&D по этому проекту? сколько специалистов нужно какого уровня?), а также "build or buy?" (нам быстрее/дешевле это всё-таки строить самим, или проще купить коробку? возможна ли коробочное решение такого типа который нам нужен?). Чтобы узнать, как писать такие документы и из каких секций они должны состоять, рекомендую прочитать книгу Валеры и Арсения "Principles of Machine Learning Design", в написании которой я участвовал сам (вариант книги на русском)
Итого, для борьбы с "синдромом самозванца" нужно:
1) научиться, блять, считать деньги, которые ты приносишь или экономишь
2) работать над тем, что приносит или экономит деньги
3) по возможности, не работать над всем остальным
Самые очевидные вещи даются сложнее всего. Чтобы худеть, тебе нужно сжигать больше калорий, чем потребляешь. Чтобы накопить много денег, тебе нужно откладывать. Чтобы растить аудиторию, нужно регулярно писать посты, которыми хочется делиться с друзьями
"Считать юнит-экономику по себе как сотруднику" – кажется, проще сказать, чем сделать. Но примерно в 10 случаях из 10, когда мне кто-то говорит, что что-то в бизнесе нельзя оценить в деньгах, я слышу только лень сделать своё домашнее задание. Можно. Просто ты ещё не знаешь как. Не пробовал. Это защитная реакция говорит, что невозможно. Если я на тебя посмотрю глазами бизнес-оунера, я найду способ, в крайнем случае можно дать все вводные ChatGPT/Claude и распутать воронку вашего бизнес-юнита
Кстати можем устроить мини-челленж, пишите в комментарии именно под этой частью свою роль и проект (насколько позволяет NDA), а я или кто-то другой будем предлагать способы оценки экономического эффекта
[1/5] Синдром Самозванца
– Если бы ты написал автобиографию, как бы ты её назвал? – Синдром Самозванца
Обещанный пост. Я опубликовал опрос и согласно его результатам, 85% из вас испытывало "синдром самозванца". Из них 65% испытывает до сих пор, это буквально 2/3
Также я попросил минимум 50 человек поделиться в комментариях своей историей появления этого чувства + что пробовали делать, чтобы его преодолеть. Что было для меня самого самым интересным, так это то, что, во-первых, каждый описывает синдром самозванца по-своему, во-вторых, ни у кого из 50 не было такого же языка рационализации этого синдрома, что и у меня
Я попросил Клода кластеризовать ваши триггеры:
1. «Все вокруг круче» (~33%) 2. «Незнакомая территория: новая роль/задача» (~27%) 3. «Мне просто повезло» — обесценивание успехов (~20%) 4. «Токсичный босс / кривая обратная связь» (~13%) 5. «Разрыв идеала и реальности» — перфекционизм (~13%) 6. Дефицит внешней валидации (~10%) 7. Тревога, инфантилизм, нарциссизм (~10%)
А также ваши методы борьбы с синдромом самозванца:
A. «Просто ебашишь» (~30%) B. Хороший руководитель / ментор (~20%) C. Фокус на себя вместо сравнений (~13%) D. Психолог / терапия (~13%) E. Близкие люди — жена, партнёр, друг (~10%) F. AI / LLM как костыль уверенности (~7%)
Composer 2 Fast - нравится
Люблю периодически у Claude Code запрашивать фидбек о наших сессиях через команду /insights. Кстати, это очень крутая фича, которая позволяет качественно улучшить процесс вайб-кодинга.
Жду, пока там появится пункт о том, чтобы я его меньше оскорбляла и материла. Стоп мне неприятно 😨
Полностью разделяю, как только у ChatGPT выйдет подписка за $100, даунгрейднуюсь в первый день
[2/2] В Loki за 3 дня
День 1 (пт). Я конечно иду на радикальные меры, говорю давайте вам оба 3000-строчные JSON-ны по самым дорогим дашбордам переведу с CloudWatch на Loki (они покрывали 97% коста, готорый генерила Grafana). Запросил себе админский доступ к Grafana, чтобы была возможность завести API токен и пустить туда Claude Code шаманить по каждому дашборду. Перевёл за вечер пятницы, понадобилось буквально пару часов, и то большую часть на дебаг.
Валидируем с оунером дашбордов. Всё совпадает, но супер медленно, некоторые метрики не прогружаются вообще (да, Loki не такой шустрый для больших интервалов времени как CloudWatch).
DevOps команда говорят что вообще-то не одобряют считать метрики напрямую из Loki, тем более на большие окна. Тем временем наш самый дорогой наш дашборд в соседней вкладке: 30 дней… 60 дней…
День 2 (пн). Кинули гайд, как это нужно делать по уму: через recording rules. Завёл их на все метрики с клодом. Recording rules сохраняют метрики в Mimir – кластер из инстансов Prometheus. Prometheus – это сервис для записи и хранения метрик (например, счётчиков). И тут самая жопа: они доступны только с того времени, когда создано правило. Причем ты даже переименование делаешь – нужно заново ждать. Конечно переезжать на дашборд через 30-60 дней, ждать пока накопятся все метрики, мы совсем не хотим. Я говорю девопсам “а можем сделать бекфилл?” (записать историю задним числом) они такие: не, это невозможно. Я говорю буквально с недоумевающим выражением лица Патрика Бейтмана из “Американского Психопата”, why is it impossible? - it’s just not - why not, you st…? Сказали, есть API по которому в Mimir можно закидывать метрики напрямую, но он их фильтрует, чтобы они были свежие, не старее чем 2 часа назад или около того.
Не стал их слушать, натравил Claude Code на документацию, смотрим, есть в mimirtools прям метод backfill. Мне говорят, мол, у нас backfill выключен и вообще это для миграций с одного Prometheus на другой (при переездах). Мол, если ты хочешь пойти нужно собирать полноценные прометей-блоки и заливать (некий сложный правильный формат приёмки данных внутрь). Я говорю ну и что, я соберу не вопрос. Они такие буквально "ну удачи чувак". Говорят можешь локально поднять Mimir, если соберешь блоки, не вопрос включим. Я конечно: challenge accepted – и ушел в туман. День 3 (вт). Утром с клодом подняли Mimir в докере, поднял Grafana. Я буквально не открывал код или консоль (кроме клода), просто декларировал что мне надо. Клод, умничка, сам всё настроил, связал, завёл, закинул ретроспективные данные, всё отображается в локальной Grafana. Показываю им, они охуели. Кидаю сгенеренный технический репорт со всей инструкцией как собирать эти магические Prometheus-блоки. Они такие, ну ладно флаг тебе в руки. Получил бонусом админские юзеры-пароли от всех их сервисов (Loki, Mimir и т.д.), чтобы можно было в Mimir API стрелять (Grafana сама их знает, но даже с API токеном не можешь подсмотреть). Клод быстренько на одну из метрик нагенерил блоков из Loki, закинул, пережевались с горем пополам. Первые блоки обработались медленно.
Говорю, а давай посмотрим в код, это же всё open-source стек, мы же можешь проследить весь путь от запроса до обработки блока, компакции, индексирования. Угадайте, что Клод нашёл? Surprise motherfucka. Оказывается, по дефолту Mimir делает --sleep-time=20 на каждый блок. Для понимания, залить 7 дней – это порядка 100 блоков (каждый блок покрывает ровно 2 часа). А теперь самое интересное: это 95% времени обработки 1 блока. Просто. Пауза. На 20 секунд.
И кто бы мог подумать, прям в POST-запрос можно пробросить --sleep-time=1, и это сокращает время обработки каждого блока с 20 сек до... в среднем, 2.5 сек. Вжух! Короче к концу 3 дня все метрики успешно загрузились в Mimir и отрисовываются в Grafana, притом намного быстрее чем в CloudWatch (даже на 60 дней) + ещё и бесплатные.
Я доволен как слон, дальше план на ближайшие 1-2 месяца масштабировать подход на все остальные команды, спидранить переезд на Loki по самым дорогим дашбордам уже там. А это ещё в 5-10 раз больше денег.
Занавес
[1/2] В Loki за 3 дня
Новая история в рубрике #КомуНадоТомуНадо
Я сейчас работаю в *некой очень большой корпорации*. Мы маленьким боевым Staff-отрядом ходим по разным отделам и тут и там сокращаем расходы на облачную инфраструктуру, оптимизируем пайплайны данных с помощью клод клода и разных самописных AI агентов, что-то выключаем и смотрим что никто не паникует и т.д.
Пару недель назад я наткнулся на одну команду, у которой годовой кост в долларах на AWS CloudWatch выражался в шестизначных (!!!) суммах. CloudWatch – это, по большей части, сервис логов + метрик, алертов. Логов, Карл!
80-90% этих костов у CloudWatch вызывает Grafana. Grafana - это сервис дашбордов. Там отрисовываются красивые визуально понятные метрики, таблички, статистики. В этой команде дашборды использовались как для анализа среднесрочных трендов, так и для оперативного реагирования на инциденты, просадки конверсий и подобного. Вообщем, некие очень важные метрики, на которые завязано много бизнес-вэлью.
Для понимания, CloudWatch снимает деньги за каждый запрос. При этом стоимость запроса пропорциональна объёму просканированных данных ($0.005 за GB) - сколько записей CW возвращает и какая логика запроса – это не влияет. Когда у вас десятки тысяч запросов в день и они суммарно сканируют сотни терабайтов данных в день, - то каждый месяц будет у вас выливаться в ооочень неприятную копеечку.
В Grafana каждая страница, как правило, имеет time range – период, который показан (например 7-14-30-90 дней), и refresh rate – частота обновления дашборда (например 1-15-30 минут или реже). И да, на каждый refresh Grafana отправляет новые запросы в CloudWatch. И да, любой пользователь может выбрать нужные ему time range и refresh rate, отличные от тех, что стояли по умолчанию. Хоть даже 60 дней.
Чтобы чем-то управлять, надо это измерять. У CloudTrail (сервиса для аудита всех действий в AWS, в том числе позволяет смотреть все запросы, которые делались к CloudWatch за день, причём бесплатно) – нет никакой информации, сколько по факту каждый запрос стоил, а также сколько GB он просканировал. Пришлось вспоминать ML, строить NNLS-регрессию на основе time range у запросов + групп логов к которой они обращались, чтобы “восстановить” сколько что стоило (в CloudTrail это сохранялось; у лог-групп +- равномерный объём данных на каждый день). Регрессия делала оценку с +-10-20% точностью на отложенной выборке. Для атрибуции запросов этого хватало.
Первые дни я пробовал собрать какие-то низковисящие плоды, типа поставить реже эти дефолтные refresh rate или сократить time range с пары недель на неделю. Эффект от этого был близкий к нулю: одни паттерны запросов стали реже, другие стали чаще. В сухом остатке ежедневный кост почти не поменялся, разве что в выходные значимо просел.
Хорошая новость: у этой команды, так повезло, чуть ли не единственной был запланирован через ~3 месяца переезд на Loki (и автоматический переброс логов из CloudWatch в Loki уже происходит). Loki – это ещё один сервис хранения логов (и запросов к ним), но в отличие от CloudWatch, Loki тебе (или твоим DevOps-ам) нужно поднимать самому. Ты платишь единственный кост: на хранение и сам сервер, а абсолютно все запросы в Loki оказываются бесплатные. Кстати, разработан той же командой, что написала Grafana, это всё часть одного стека.
Любопытствую у начальника отдела, мол, а что является блокером для переезда? Говорит что-то из серии, нет времени, нужно аллоцировать много ресурсов, у нас сложные дашборды, много метрик. Для понимания, язык запросов в CloudWatch сильно отличается от языка запросов в Loki (LogQL).
Если проблема упирается в написание кода – в 2026 это не проблема.
Claude Cowork: Dispatch
Попутно сделали своего конкурента OpenClaw в Claude Desktop - можно удалённо управлять агентом с десктопными MCP, файлами, тулами, скиллами
Пока видимо живёт строго в Desktop приложении (а не на сервере). Возможно всё-таки Mac Mini придётся брать 😑
https://support.claude.com/en/articles/13947068-assign-tasks-to-claude-from-anywhere-in-cowork
Claude Code: Remote Control
Claude Code сделали адпейт, который я точно буду обкатывать, как только доедет: теперь можно до сессии написать claude remote-control или во время сессии ввести /remote-control и сессия переносится на мобильное приложение и ты можешь продолжать вайб-кодить не прерывая контекст, пока ты в качалке или в такси
https://www.youtube.com/watch?v=Ko7_tC1fMMM
Бен Томпсон сегодня выкатил статью, в которой заявляет: мы не в пузыре. Аргументация хорошая, разберу.
Выделяются три парадигмы LLM. ChatGPT в 2022 — демонстрация возможностей, но с галлюцинациями и требованием agency от пользователя: ты сам должен понимать, зачем тебе модель, и верифицировать каждый выход. o1 в 2024 — ризонинг-модели начали итерировать над ответом самостоятельно, надёжность выросла, нагрузка на пользователя снизилась. А дальше — агенты в конце 2025: Claude Code с Opus 4.5, GPT-5.2-Codex.
И вот тут самое интересное. Прорыв оказался не в модели. Opus 4.5 вышел в ноябре 2025, и никто не заметил. А потом изменился harness в виде обвязки Claude Code и всё заработало совсем иначе. Агент управляет моделью, дёргает детерминистические инструменты, верифицирует результат без человека. По сути, все слабости первой парадигмы закрыты. Особенно, для верифицируемых юз кейсов типа кода.
Отсюда Томпсон вытаскивает два тезиса. Первый: агенты меняют экономику agency. Раньше для роста потребления компьюта нужен был массовый адопшн — каждый пользователь должен был проявить инициативу, но теперь один человек управляет десятком агентов. Для взрывного спроса на вычисления достаточно сравнительно небольшого числа людей, которые умеют формулировать задачи.
Второй — разбор value chain. Дедью из Asymco недавно написал, что Apple гениально поставила на коммодитизацию моделей: лицензировала Gemini за $1B/год вместо того чтобы тратить $100B на свою. Появится модель лучше — просто сменит поставщика. Побеждает тот, кто владеет клиентом.
Томпсон разбивает это по парадигмам. В эпоху чатботов Дедью был прав — базовые модели быстро стали достаточно хорошими и их можно было гонять локально. Ризонинг-модели уже создали проблему: им нужен быстрый компьют и огромные контекстные окна, Apple Silicon не конкурирует с облаком, но агенты ломают коммодити-тезис окончательно. Дифференциация теперь не в модели, а в интеграции модели и harness. Это не модульные компоненты, которые можно менять по отдельности.
А прибыль в value chain всегда течёт от модульных звеньев к интегрированным. Если агенты = интеграция модель+harness, то Anthropic и OpenAI — точки интеграции, а не взаимозаменяемые API-поставщики. Microsoft тому пример: заявляли model-agnostic стратегию с Core AI, но для Copilot Cowork были вынуждены интегрироваться с конкретной моделью и продавать это в бандле E7 за $99/seat.
https://stratechery.com/2026/agents-over-bubbles/
Opus 4.6 > GPT 5.4
Думаю над тем чтобы перезапустить рублику #LifeOps но уже в контексте скиллов для OpenClaw или другого персонального AI-ассистента на ваш вкус. Сейчас такое время что многие рутины можно автоматизировать и передавать буквально .md файлом
Учёные научились превращать активность мозга животных в видео. Благодаря этому можно посмотреть на мир глазами, например, мыши. ИИ-модель реконструирует ролики на основе сигналов из зрительной коры мыши.
Новые наработки позволили повысить точность воспроизведения в два раза по сравнению с предыдущими попытками. Благодаря этому способу можно не только увидеть мир от лица мыши, но и понять, как её мозг искажает окружение.
В будущем это могут использовать для визуализации снов и создания нейрокомпьютерных интерфейсов для людей с параличом.
@zavtracast
А помните мем Гарри Поттер + Баленсиага?
Ну теперь это почти короткометражка: https://youtu.be/gtnt84CDP-s
То есть, пара лет, и будем фильмы-мемы смотреть
Что там в Иране? 🇮🇷
Я не хочу отвлекаться на новости, поэтому каждый вечер прошу Клода актуализировать подробный дашборд о происходящем с разных ракурсов
https://claude.ai/public/artifacts/6e507b55-a7f9-4eb3-b9b8-ed6634e3ab73