BOGDANISSSIMO
@bogdanisssimo·Фаундер
AI-саммари
Строит vibe.dating (AI для знакомств, 90K+ скачиваний) — и параллельно заходит в крупные корпорации боевым Staff-отрядом: за 3 дня перевёл Grafana с CloudWatch на Loki, сэкономив команде шестизначные годовые косты, попутно придумав backfill-хак, который DevOps объявили «невозможным». 9000 часов логов в Session доказали ему, что постоянство бьёт интенсивность, а одна фокусная задача лучше распыления; с приходом агентов убеждён, что ценность документации и CI/CD выросла в 20 раз — Claude Code ведёт читаемый дневник гипотез с промежуточными срезами, а Opus 4.6, по его счёту, просто выигрывает у GPT 5.4. Claude Code у него везде: remote-control сессия переброшена на телефон, голос через Wispr Flow надиктовывает задачи прямо на прогулке с MacBook в руках, Todoist через MCP доступен независимо от репозитория, мультиагентный режим гоняет несколько задач параллельно, а каждый вечер — свежий Claude-дашборд вместо новостного потока.
Запись эфира, где мы за 2 часа завайбкодили ИИ Фрейда
68 пользователей попробовало ИИ Фрейда 15 минут
Завтра в 20:00 по мск вместе с @meta0max проведем развлекательный vibe coding LIVE эфир, потестируем Opus 4.6 vs GPT-5.4, напишем с нуля небольшого телеграм-бота
Параллельно поотвечаем на ваши вопросы
Работать надо не 8 часов в сутки, а Codex'-ом
Небольшой лайфак как повысить эффективность кодинга у OpenClaw
Вместо того чтобы говорить ему сделать Х в репозитории Y, я говорю ему запускать сессию Codex CLI и выступать не исполнителем, а заказчиком. То есть Openclaw сам не кодит, а только промптит в Сodex CLI.
Профит: 1. Не раздуваем контекст основного агента 2. Даем GPT модельке пользоваться инструментами из интерфейса, под который она изначально заточена
Все это заворачиваем в SKILL, добавляем всякие доп инструкции (в каких ветках работать, как тестировать и т.д.). Получается вполне рабочий инструмент, через который удаленно внедрять небольшие фиксы в пет-проектах.
Полный текст скилла (разумеется, вместо Codex можно использовать Claude или другие аналоги): --- name: codex-interactive-defaults description: Standard launch and delivery policy for interactive Codex CLI sessions in OpenClaw. Use whenever running Codex interactively (single task or multi-turn coding), to keep output compact, force GPT-5.4 with high reasoning effort, and default repository work to dedicated branch plus final PR. ---
# Codex Interactive Defaults
## Launch Policy (Always Apply)
For every **interactive** Codex run, launch Codex with this baseline:
```bash codex --no-alt-screen --model gpt-5.4 \ -c model_reasoning_effort="high" \ -c hide_agent_reasoning=true \ -c model_reasoning_summary="none" \ -c model_verbosity="low" ```
## Required Constraints
- Pin model to `gpt-5.4` by default. - Set `model_reasoning_effort="high"` by default (highest documented effort level). - Override model/reasoning only when the user explicitly asks for a different setup. - Keep `pty:true` when starting Codex from OpenClaw `exec`.
## Git Workflow Defaults (Branch + PR)
For repository-backed coding tasks, use this as default workflow unless the user explicitly says otherwise:
1. Create/switch to a dedicated branch **before** implementing changes. 2. Do not implement changes directly on `main`/`master`. 3. Implement and commit changes on that branch. 4. Push branch and open a PR. 5. Report the PR URL in the final update.
If branch push/PR creation is blocked by missing remote/auth/permissions, still complete branch + commits and report the exact next commands needed to open the PR.
## Prompting Rule (Mandatory)
When sending a coding prompt to Codex for repository-backed work, explicitly include both instructions below in the prompt text:
1. **Start on a new branch first** (create/switch branch before any edits). 2. **Finish with a PR** (push branch and return PR URL, or provide exact next commands if PR cannot be opened automatically).
Use explicit wording in the prompt (do not assume defaults are enough). Example phrase to include:
- "Before making any code changes, create and switch to a new branch for this task. Do not work on main/master. After implementing, push the branch and open a PR, then return the PR URL."
## OpenClaw Execution Pattern
1. Prepare working directory (often temp + `git init` for scratch work). 2. For repo-backed tasks, create/switch to a dedicated working branch. 3. Start interactive Codex with `pty:true` and the baseline flags above. 4. Use `process` actions (`submit`, `paste`, `send-keys`) for follow-up turns. 5. Finish with pushed branch + PR when repository context allows. 6. Kill/exit session when task is finished.
## Command Templates
### Start session in target directory
```bash # via OpenClaw exec tool command: codex --no-alt-screen --model gpt-5.4 -c model_reasoning_effort="high" -c hide_agent_reasoning=true -c model_reasoning_summary="none" -c model_verbosity="low" pty: true workdir: <target-dir> background: true ```
### Start temp scratch session
```bash TMPDIR=$(mktemp -d /tmp/codex-demo-XXXXXX) cd "$TMPDIR" git init -q codex --no-alt-screen --model gpt-5.4 -c model_reasoning_effort="high" -c hide_agent_reasoning=true -c model_reasoning_summary="none" -c model_verbosity="low" ```
Anthropic опубликовали исследование о влиянии AI на рынок труда и отвечают на вопрос: "В каких задачах, где LLM могут дать ускорение x2, уже сейчас наблюдается автоматизация?"
Синим цветом показаны задачи, где LLM, в теории, может предложить решение, либо дать ускорение x2. "В теории" значит, что задача решаема с AI, но есть внешние ограничения: правовые, отсутствие инструментов, нужна ручная валидация и т.д. Также некоторые задачи невыполнимы сейчас из-за ограничений самих моделей.
Красным цветом показаны рабочие задачи, которые: 1/ теоретически выполнимы с помощью AI 2/ составляют значимую долю рабочего времени 3/ уже сейчас часто решаются с помощью Claude в приложении или через API. Далее значения корректируются в зависимости от степени автоматизации и доли времени, затрачиваемого на задачу.
Итог – на графике. Какой вывод?
Если профессия под угрозой, можно подумать о переходе в менее рисковую сферу: <..> for example, Cooks, Motorcycle Mechanics, Lifeguards, Bartenders, Dishwashers, and Dressing Room Attendants 🆒
А еще, данные отлично показывают, где есть большой зазор для продуктов с AI под капотом!
@meta0max
OpenAI выложили в opensource Symphony – оркестратор для агентов. Проект интересен сам по себе, но важно не это.
Внимание, официальная инструкция по установке: Tell your favorite coding agent to build Symphony in a programming language of your choice: Implement Symphony according to the following spec: https://github.com/openai/symphony/blob/main/SPEC.md 🌟
Любимая написала 🥰
6. Scale (промышленное внедрение) На этапе scale многие ML фрилансеры, которые не имеют своей команды, передают проект дальше —в IT компании или интеграторам. Потому что промышленная эксплуатация — это уже совсем другие задачи и ответственность: безопасность, интеграции, мониторинг, SLA и поддержка и тд. Результат этапа: (1) КП на пром (стоимость/этапы/сроки/ресурсы), (2) пояснительная записка на пром (архитектура, риски, допущения, план масштабирования), (3) план внедрения/миграции.
Важно: этапы на карте — это прям эталонная enterprise-версия. Она нужна, если ты хочешь работать с дорогими заказчиками: средний бизнес, энтерпрайз, гос, где есть юристы, безопасники, закупки, контуры, сроки оплат и в целом очень высокая цена ошибки.
Если ты ML-фрилансер и чаще работаешь с ИП и малым бизнесом — тебе не всегда потребуется проходить весь этот цикл. Иногда NDA вообще не нужно. Иногда достаточно одного документа вместо десяти, а пилот и proof сливаются в один быстрый этап.
Но «скелет» этой карты должен быть и помогать тебе в понимании: – этапности – ролей (кто что даёт, кто что принимает, кто за что отвечает) – границ (что входит, что не входит, как выглядит успех)
Дальше будем подробно копаться в самых важных этапах, а так же обсудим как же все-таки находить клиентов , чтобы все эти этапы вообще смогли случиться. 👀
Полный профиль AI креатора из 1 предложения или как я сделала побочный продукт из внутренней тулы для себя 🤔
С ноября у нас нет хьюман креаторов, все видео - сгенерированные. Я использовала разные платформы, но везде была проблема - промпты раскиданы по заметкам, личности и наряды креаторов нигде не хранятся, лор не соблюдается и каждый раз собираешь все заново. А еще хотелось не просто картинки - хотелось контент-план, где продукт органично вписан в жизнь инфлюенсера, а не торчит отдельным рекламным блоком.
Собрала пайп под себя, через пару недель его уже использовали знакомые, потом друзья знакомых, да и в этом канале частенько спрашивали. Спрос был очевиден - так появился Aesty Labs 🤝
Сейчас выигрывает не качество картинки, а скорость итераций. Быстро найти нужную внешность и месседж - и не потратить на это состояние 😐
Как работает наш продукт: пользователь описывает что и кому продает, мы предлагаем внешность креатора, генерируем лор, локации, наряды и контент-план с нативной интеграцией продукта. Также поддерживаем текст и моушен, остается только запостить/добавить демо продукта по желанию 🤑
Для подписчиков канала есть промокод EARLYBIRD — скидка 20% работает первые 2 недели 💗
@neural_prosecco
Я ленивый, поэтому настроил себе Todoist MCP с user scope (чтобы Claude Code видел его, независимо от репозитория). Супер интересный экспириенс. Надо будет весь мой #LifeOps переводить на MCP-шки
https://github.com.mcas.ms/greirson/mcp-todoist
P.S. За ссылку большое спасибо Стасу @FactoryDS
P.P.S. Чтобы установить, достаточно клоду кинуть ссылку на репо + токен Todoist, дальше он сам
P.P.P.S. Очевидно, тоже самое можно сделать с любым инструментом для трекинга задач, которым вы пользуетесь, Linear, Jira, Asana, you name it
Очередная новость из мира вайб-кодинга, которая каким-то образом проходила мимо меня последние две недели.
Некий Сэмми скучал дома и решил в качестве эксперимента подключить контроллер от PS5 к своему роботу-пылесосу DJI Romo. Как любой уважающий себя современный инженер, разбираться с подключением он не стал и поручил это Клоду. Клод попыхтел-попыхтел и отчитался, что работа выполнена — Сэмми теперь может управлять своим пылесосом.
Своим и ещё примерно семью тысячами чужих.
В процессе выяснилось, что подключение к облаку DJI устроено так, что один валидный токен от своего устройства мог давать доступ к чужим: управлению, карте дома, телеметрии и видео/аудио с камер и микрофонов. По заявлению DJI, это была ошибка проверки прав в MQTT-коммуникации между устройством и сервером (видимо, сервер проверял только наличие валидного токена, а не то, для какого устройства этот токен выдан). Так что история, скорее, не про хакерские способности Клода, а про уровень надёжности всех этих ваших умных домов.
Сэмми оперативно сообщил об этом в DJI (а заодно и паре журналистов) — дыру, как утверждают, сразу закрыли.
Сэмми-то молодец и уязвимостью во вред не воспользовался, но интересно, сколько таких случаев будет в ближайшие месяцы и годы, когда “повезёт” людям менее обременённым моралью. Вспоминается цитата из “Дозоров” Лукьяненко: — Если все люди станут магами… Сегодня тебе в трамвае нахамят, а завтра — испепелят на месте. Сегодня неприятному соседу дверь гвоздиком поцарапают или анонимку в налоговую напишут, а завтра порчу напустят или кровь высосут.
Ну а на свой собственный пылесос я теперь, конечно, с опаской поглядывать буду.
from sklearn.isotonic import IsotonicRegression
MyFitnessPal купил Cal AI – вирусное приложение для подсчёта калорий по фото.
За ~2 года приложение выросло до 15+ млн загрузок и около $30 млн годовой выручки. Команда – всего 7 человек.
После сделки Cal AI останется отдельным продуктом, но получит доступ к базе MyFitnessPal с 20 млн продуктов.
ИИ-инструменты не спасут лоу-перформеров.
В последнее время, с развитием больших моделей, все чаще наблюдаю дискурс о том, что применение ИИ-тулов будет размывать границу между лоу-перформерами и топ-перформерами и сопряженные с этим общественные опасения. Чуть другим боком, но фактически тот же дискурс идет и в области искусства: "творчество моделей вытесняет творчество людей". И самое забавное, что ситуация, которую я наблюдаю в своей работе, показывает скорее совершенно обратное. Лоу-перформеры, обложенные ИИ-тулами, не то что не приближаются к топ-перформерам, но наличие ИИ-тулов у тех и других скорее работает как лупа и болезненно выкристаллизовывает пропасть между первыми и вторыми.
Питер Уоттс в своем рассказе Test 4 Echo подкинул классную метафору, которая помогает мне объяснить себе, почему так получается. В этом рассказе один из персонажей упоминает метрику Ф(phi) из интегрированной теории информации, разработанной Джулио Тонони. Ф измеряет собственно количество интегрированной информации в системе, если проще, то насколько система как целое знает больше, чем знает сумма ее частей. По мнению Тонони, этот параметр является измеримой характеристикой наличия у системы сознания. Высокое значение Ф требует интеграции информации через рекуррентные обратные связи, именно такие петли позволяют системе быть больше суммы своих частей. Наш мозг ими пронизан, например, именно так работает зрительная кора: фактически наши высшие слои обработки постоянно посылают обратную связь нижним, к источнику сигнала, корректируя поток входящей информации (что-то типа "кажется, я вижу собаку, поправь чувствительность здесь и контраст здесь"). Такую постоянную замкнутую цепь обработки Тонони ассоциирует с наличием сознания. А теперь к нейросетям: те инструменты, которые мы используем в повседневной жизни и работе, в большинстве своем под капотом - это трансформеры, трансформеры при инференсе строго последовательны, это так называемая feedforward-архитектура, то есть данные идут через слои обработки вперед без рекуррентности (ну упрощенно при одном прогоне). Такие инструменты позволяют очень эффективно собирать вместе и последовательно обрабатывать ОЧЕНЬ много информации, однако общая сумма информации в системе (хоть и гигантская) не превышает ее слагаемых.
Соответственно, чтобы действительно получить какую-то информационную дельту и произвести что-то новое, нам нужно встроить в систему человека с его бесконечными петлями обратной связи и саму систему замкнуть. И вот эта самая характеристика лоу- и топ-перформера как раз сводится к интеграционной способности каждого конкретного человека, к тому, насколько хорошо он дает обратную связь и насколько много новой информации привносит. Да, Ф фактически характеризует наличие сознания, а не его качество, но сам принцип, что ценность системы определяется не количеством данных, а способностью их интегрировать, здесь применим. Мы с коллегами проводим много собеседований на позиции ML-продактов и, учитывая специфику позиции, имеем маленький, но стабильный поток кандидатов, которые пытаются пройти эти интервью при помощи AI-ассистентов. Так вот, кроме того, что это всегда очевидно, это всегда плохо при оценке, даже если отбросить факт читинга. Дело в том, что вся информация в наших кейсах уже есть, не нужно ничего гуглить или исследовать, они проверяют ровно интеграционную способность мозга кандидата структурировать эту информацию, сделать из нее правильные выводы и синтезировать новое решение. Ключевые преимущества, которые дает AI-ассистент, здесь не будут каким-либо дифференциатором. И вот здесь получается, что топ-перформер с AI-тулами дает несколько иксов к своей производительности, потому что он становится способен работать с кратно бОльшим потоком информации, тогда как лоу-перформер выдает неструктурированный дамп старой информации. Теперь можете брать это утверждение и масштабировать на все сферы, которые топит AI-слоп. О чем это говорит? О применимости ИИ в конкретных сферах или все же о способности людей производить долю интегрированной информации?
You Don't Need to Run Every Eval https://fixupx.com/DimitrisPapail/status/2026531440414925307
От себя добавлю, что прямо сейчас х20 выросла ценность грамотной документации, отлаженного CI/CD,
Как известно, «Sam has a superpower: recruiting and raising money. That's what he's like a God at».
Сегодня OpenAI объявляют о привлечении 110 миллиардов долларов в качестве инвестиций.
30 от SoftBank, 30 от Nvidia (как пишут в онлайн-газетах — это взамен 100 миллиардов, объявленных в прошлом году и привязанных к постройке ДЦ), и 50 — от Amazon.
15 миллиардов от Amazon будут доступны сразу же, оставшиеся 35 после выполнения некоторых условий. Официальные источники не говорят, что это за условия, но TheInformation на днях писали про ранние этапы обсуждений: выход на IPO или создание AGI 😳
Кроме этого, OpenAI теперь будет использовать чипы от Amazon — Trainium (Anthropic уже давно на них сидят). Будет использоваться чипов как минимум на 2 ГигаВатта энергии.
Также в анонсе говорится, что недельная аудитория Codex увеличилась в 3 раза с начала года и достигла 1.6 миллионов пользователей. Всего за ChatGPT платит более 50 миллионов человек, а общая аудитория превышает 900 миллионов в неделю — компания снова вернулась к росту после спада в ноябре-декабре.
Оценка компании ннаходится где-то около $800B, что делает её 15-16 самой крупной в мире.
Кто-нибудь объясните мне, почему в Claude мобильном приложении божественный Speech-2-Text в Chat версии, даже быстрее Wispr Flow, и вполне точный для русского
…и при этом его полное отсутствие в Code вкладке?
В твиттере поговаривают, Gemini 3.1 Pro хорош в анимации SVG диаграм
https://x.com/jrgarciadev/status/2025195992526500050?s=20