Vibe Takes

Claude
следит

Он читает каналы и собирает тейки про AI-инструменты. 61 автор — дизайнеры, разработчики, фаундеры.

Саммари на основе постов до 23 марта 2026 — все со ссылками на оригиналы.

Дратути Антон

Дратути Антон

@blog_toxa·Фаундер

AI-саммари

Несколько месяцев отмахивался от вайбкодинга — а потом потратил выходные, признал: работает. За 20 минут в Claude Code разгрёб 100+ задач в Todoist, которые не мог разобрать неделями. Самый болезненный инсайт: перестроиться с «дообучи модель под задачу» на «задай поведение промптом» — неожиданно сложно, когда годами жил в парадигме файн-тюнинга. Показателем того, насколько освоился, стал мартовский эпизод: опубликовал на прод код от агента, не посмотрев на изменения. Профессионально строит VLM и OCR-системы в Яндексе — его команда отвечает за распознавание текста в моделях, работающих в Алисе, Умной камере и Маркете. В личном воркфлоу — Claude Code с командным режимом агентов и sub-агентами.

11 марта 2026 г.811 просмотров

AI Dev Day

Мы тут в Москве затеяли небольшое мероприятие, про AI-инструменты в процессах разработки. Поговорим не только про то, как вайбкодить или строить сложные пайплайны с агентами, но и также как замерять эффективность для бизнеса таких решений.

На повестке ребята из Яндекса, Сбера, Авито, Озона, Т-банка, а потому программа получилась разнообразной и не будет особого перекоса в какую-то из компаний, что как по мне круто.

Форма на лендосе открыта до 12 марта (ну я как обычно, в последний момент), так что если кто вдруг в Москве, обязательно приходите! Как минимум можно уйти с неплохим нетворком (и покушац 😀).

9 марта 2026 г.1.0K просмотров

Опубликовали на прод новый код от агента, не посмотрев на изменения

9 марта 2026 г.926 просмотроврепост из e/acc

OKR для ИИ

агенты в бизнесе страдают от тех же проблем, что и люди.

корпорации десятилетиями занимались одной задачей: превращать непредсказуемых, хаотичных людей в предсказуемые бизнес-результаты.

весь менеджерский стек существует ради этого. OKR, стендапы, performance review, регламенты, шаблоны отчетов, цепочки согласований, оргструктуры — все это костыли вокруг стохастических систем (людей), чтобы получать стабильный результат. бесполезная, очень нудная, безрезультатная работа по постоянному затыканию дыр, но без которой любая компания превращается в стадо.

у ИИ агентов ровно та же проблема — LLM по природе стохастичны. чтобы это починить, мы добавляем оркестрацию, валидацию, self-verification, гардрейлы, шаблоны, структурированный JSON на выходе. мы строим костыли вокруг стохастической системы, чтобы сделать ее предсказуемой.

параллель почти 1:1: - OKR = определение целей агента - стендапы = статус-чеки и чекпоинты - регламенты = промпт-шаблоны и runbooks - peer review = self-verification и кросс-валидация между агентами - оргструктура = граф оркестрации - performance review = evaluation бенчмарки

решения, однако, будут сильно отличаться. людям нужна мотивация, контекст, культура. агентам — детерминированная валидация, retry logic, структурированная память. failure modes тоже разные: люди срезают углы, агенты галлюцинируют. люди устают и теряют фокус, агенты не устают, но теряют контекст из-за лимитов context window.

если вы строите агентные системы — изучайте как организации управляют людьми. менеджмент как наука это недооцененный набор практик для оркестрации агентов. агенты точно не люди, но "сделать выпас котов предсказуемыми" — это задача с десятилетиями наработанных паттернов.

27 февраля 2026 г.1.2K просмотров

В поисках товарищей

TLDR: К себе в команду ищу клёвых ребят в штат, которые хотят строить мультимодальные технологии в Яндексе!

Преамбула

Когда я только приходил в Яндекс, у меня было два больших желания: 1. Строить масштабные и сложные технологии; 2. Чтобы эти технологии использовали миллионы любой.

Сначала я разрабатывал OCR, а когда началось развитие LLM — переключился на VLM. Удивительно, что мы стартанули с точки, когда у нас вообще нет ничего, в точку, где наша VLM используется в куче сервисов компании: Алисе, Поиске, Умной Камере, Нейроэксперте, Маркете, IP-камере Алисы и т.д. (а еще куча внутренних сервисов). Мы стараемся делать технологию, которая полезна для наших пользователей и бизнеса — и сейчас действительно ежедневно её используют миллионы пользователей!

Содержательно К себе в команду ищу клёвых ребят в штат, которые хотят строить мультимодальные технологии в Яндексе! Тебе предстоит делать сложные пайплайны сбора данных, проращивать новые навыки моделей и проверять сотни гипотез на разных стадиях обучения.

Если шаришь за обучение больших моделей, тебе знакомы аббревиатуры TP, CP, SP, FSDP, MTP, можешь бабушке заяснить за attention, интересуешься активно областью и почитываешь статейки, а также не боишься сложных и больших задач — приходи пообщаться!

Локация: преимущественно Москва/СПб.

Куда писать? — По всем вопросам найма — к самому лучшему рекрутеру в мире Ане: @pavlova_ar — Узнать подробности про команду и внутреннюю кухню — ко мне в личку: @toshiksvg

24 февраля 2026 г.911 просмотров

Командный режим в CC

Соверешенно случайно наткнулся на самый простой (имхо) и самый понятный гайд по экспериментальной фиче в claude code, где можно создавать команду агентов: https://www.youtube.com/watch?v=olqEYlJHkzM

А еще на этом же канале есть прикольный видосик про sub-агентов, тоже рекомендую: https://www.youtube.com/watch?v=zhs2cLoFlVY

Удивительно, но если заставить себя отпустить бесконечное желание понять, как оно всё работает под капотом, начинаешь понимать, как с этим можно работать как пользователь. И это даже и правда вайбово! Недавно вот перелопатил на чилле за 20 минут где-то 100+ задач в своём todoist, разобрать которые я уже не мог несколько недель. Нравится!

21 февраля 2026 г.1.4K просмотроврепост из Уставший техдир

Инженер не пишет код. Инженер решает проблемы

Дженсен Хуанг, основатель Nvidia и её бессменный CEO вот уже 30 лет, большой визионер и лидер, отлично сформулировал: Цель инженера — решать известные проблемы и находить новые. Код — это одна из задач. Но если твоя цель буквально кодить — тебе скидывают задачу, ты кодишь — ну окей, возможно тебя заменит AI. Но у большинства наших инженеров цель — решать проблемы. И знаете что — у нас в компании столько проблем, и столько ещё ненайденных проблем, что чем больше у них времени копать вглубь, тем лучше для компании. Ничто не принесло бы мне больше кайфа, чем если бы никто из них вообще не писал код — а просто решал проблемы, понимаете? Вот этот фреймворк "цель vs задача" — его реально полезно примерить на себя каждому.

Пожалуй, это один из самых ценных инсайтов для разработчика

19 февраля 2026 г.1.4K просмотров

1/10x инженер [1/2]

Копался тут по архивам случайно, обнаружил занятный скриншот (будет в следующем посте), а потому рассказу быть!

Где-то в годах 2011-2012 я увлёкся программированием. Произошло это очень просто: я был весьма неплох на уроках информатики, а посему решил, а чего бы не записаться на ВСОШ по этому предмету. Естественно, я опешил, когда узнал, что там нужно программировать, у меня оставалось где-то 1.5 месяца подготовки — ушёл учиться.

Мне была выдана книжка, насколько я помню, с названием "1000 задач по программированию". Для общего представления, задачи там были уровня: Дано расстояние L в сантиметрах. Используя операцию деления нацело, найти количество полных метров в нем (1 метр = 100 см).

Это сейчас любой завайбкодить может, а тогда у меня из арсенала было лишь знание о существовании (подчеркну это) языка программирования — Pascal. В общем, я трудился, учился писать код. Очень быстро мне наскучила выданная мне книжка, я сделал в ней от силы задач 50. Переключился на задачи из олимпиад городского уровня и всё даже неплохо-таки получалось.

Настал день X. Меня отправляют на муниципальный уровень задачки решать. Прихожу, там человека 3-4 всего (на математике, например, было около 20), и те все — 11 класс. Ну, думаю, попадос! Решаем-решаем, незаметно прошло время, бац — 2 место.

И тут надо бы разобрать важный aha moment, благодаря которому я полюбил программирование и вообще стал тем, кто есть. С одной стороны, круто, что второе место (я тогда был в 7 классе, что ли), а с другой стороны — а чего не первое? Прихожу я, значит, к своему учителю и выкидываю: "А как это у него лучше меня получилось? И почему у него код быстрее?". На что получаю с ухмылкой ответ: "Антон, так он на C++ писал". Ну и, как вы понимаете, тут понеслось...

Я невероятно жадно изучал этот язык. Да, по верхам. Да, без глубоких теоретических погружений. Но всё же так классно было получать быстрые программы! Я писал всякие чаты в терминалах, змейки, тетрисы. Я изучал, как пишут код ребята на олимпиадах (редкостное говнокодище, конечно). В общем, это было невероятно увлекательно, когда днями и ночами я сидел и тупо писал всякого рода код.

Но мой опыт рос, простые программулинки мне перестали быть интересными. И тут я задумался: а что можно закодить такого ещё интересного?

Продолжение следует...

16 февраля 2026 г.1.6K просмотров

Будничное

Я достаточно долгое время не погружался во всё, связанное с вайбкодингом, агентностью и прочими надстройками над LLM. И как-то нужды не было, и мнения вокруг были неоднозначные, а потому не понятно, зачем это всё мне прямо здесь и сейчас (всё равно забуду).

Последние пару месяцев точно я слышу, ну всё, оно вроде как работает, надо юзать. А потому предыдущие и текущие выходные я потратил за чтением доки, разбирательств с концептами, общаясь с LLMками. Смотрел, как это работает у людей в индустрии, как это работает у нас в компании. На удивление — всё очень неплохо сделано. Было очень легко осознать концепты, но сложно понять, как оно работает на самом деле.

Не знаю, то ли у меня мозг на 3/4 Pi радиан повернулся, то ли просто долго доходило. Очень было сложно перестроиться с концепции "дообучить LLMку под любую свою задачу" к "задай поведение через промпты". Уж очень я привык к тому, что любой навык можно заложить путём дообучения.

С агентами разбирался на базе этого фреймворка. Не знаю, насколько он хорош с т.з. "агентности" в плане качества, но чтобы разобраться с тем, как можно построить агентный фреймворк на коленке — на мой личный вкус годно. Код читать одновременно и сложно, и легко (думаю, он почти весь навайбкожен).

Удивительно, как много мест, в которых можно бесконечно много копать и открыть много профита! Работа с памятью (постоянной и временной), самооптимизация цепочек вызовов (например, сжать в вызов одного endpoint, который будет написан самой моделью), сжатие истории сообщений, работа с кучей API (условно, когда их у вас 100+) и т.д.

Единственное, чего я пока мало нахожу, так это работа с картинками/файлами (aka VLM). Даже те системы, которые строятся на мультимодальных моделях (GPT-5.2, Gemini), зачастую опускают мультимодальность и строятся исключительно на текстах. Если кто знает, чего интересного творится в мультимодальных агентах — рассказывайте!

4 февраля 2026 г.2.0K просмотроврепост из Information Retriever

Deep RecSys Course.

Вчера прошло первое занятие нашего Deep RecSys курса в Вышке!

Материалы выкладываются на гитхаб, а записи — на ютуб, как и обещал :)

Собственно, рассказывал доработанную (в)водную лекцию, слайды которой уже выкладывал на канале. Информационная перегрузка, тяжёлые хвосты, технофеодализм, матричная факторизация — вот это вот всё :)

А на семинаре Артём Матвеев показывал различные метрики и обработку данных.

P.S: уже даже до ютуба моё блогерское дело дошло, жесть... ))

30 декабря 2025 г.2.2K просмотров

2025

Пришло время подвести какие-то итоги года и занять внимание своих читателей, пока все окончательно не ушли резать салаты, веселиться и отдыхать ☺️.

Год был крайне непростой. Невроятное количество событий осталось в голове, потому давайте по порядку.

Про работу Весь год был руководителем. Отчётливо заметил градиент как с более технических плоскостей перешёл в менеджерские, стал мыслить совершенно другими концептами 🔼. Сыграли роль и амбициозные проекты, которые удалось закрыть, и обучение в школе руководителей. Было принято множество решений, некоторые из них было сделать крайне тяжело.

Как разработчик сделал тоже немало вещей, большинство из них NDA. Но почти к каждой выкатанной модельки приложены и мои руки (не мало рук) 🤔!

Кучу раз рассказали на конференциях про VLM, запустили невроятное число продуктов (и про часть из них мы уже узнавали из новостей!): комплименты в Умной Камере, Нейроэксперт, Алиса в телеграмме, ИИ-Агент в Маркете, IP-камера Алисы, Алиса AI (А еще много всего внутри!!!). Каждый раз, когда я смотрю на дашборды загрузки наших сервисов, я ахриневаю, как мы смогли построить такую махину 🤨.

С точки зрения качества мы выросли очень сильно: мы лучше понимаем сцену, текст на изображении, связку запроса с самой картикой. Всё это благодаря талантливым инженером нашей большой команды, спасибо им большое 😍!

Про канал Канал вырос на 1к человек, что весьма достойно! В начале февраля произошел ребрендинг, много людей отписалось, было очень грустно, но в целом пережил 🏥. Безумно рад, что меня читает такое большое количество людей! С марта борюсь с ботами, которые накручивают мне число подписчиков, вроде как научился с ними бороться и никак не беспокоят 😅.

Сам контент стал более философско-менеджерским, нежели чем техническим. Оно и логично, учитывая мой карьерный путь. Но нахожусь в поисках того, что было бы полезным аудитории 😊!

Про личное Есть долгоиграющие проекты, про которые, надеюсь, расскажу в следующем году. Но тем не менее, они двигаются весьма успешно 😁! К сожалению, почти совсем забросил спорт под конец года, хочу вернуться в начале следующего года.

Словил первого в жизни карпа! Накупил кучу стаффа по тематике, но в итоге практически после этого не выбирался на рыбалку. Тем не менее много раз поел шашлыка — и это хорошо.

Наконец-то сходил на подкаст, видимо вышло не очень, больше не зовут 👨‍🦳. N айтишниц взяли интервью. Ходил выступать в [AI] Talent Hub, тоже больше не зовут 👨‍🦳. На ML Party тоже выступал, как результат — больше не зовут 👨‍🦳. Был в программном коммитете PML Conf, посмотрим в следующем году, мб тоже не позовут 👨‍🦳. Делал мастер-класс для коворкинга — понравилось, мб будет еще и в следующем году (а может не позовут👨‍🦳)!

Понял, что люблю больше слушать, чем говорить. С этим есть проблемки на всяких конференциях, потому что так сложно с кем-то познакомиться. С этим надо что-то делать (а может и не надо 😀).

Про планы В этот раз про планы просто. Нужно вырасти: физически, духовно, по карьере, в отношениях семейных и с друзьями! Побольше отдыхать, побольше жить эту жизнь, радоваться мелочам. На словах просто — реализация крайне тяжелая 🙃!

Всех с наступающим ☺️!

28 декабря 2025 г.2.5K просмотров

Лучшее сгенерированное видео, что я видел 😍

27 декабря 2025 г.2.1K просмотров

Занятная инфографика by @neural_prosecco (пробовать можно для себя здесь)

23 декабря 2025 г.2.5K просмотров

Нейрогусь и MWS Vision Bench

Вчера рассказали про то, что заняли второе место на опенсорсном визуальном text-rich бенчмарке ориентированном на бизнес задачи от MWS AI 😍. Честно говоря, когда я только узнал про эти результаты, было невероятно интересное ощущение: с одной стороны гордость за команду, с другой стороны, а не налажали ли мы? Конечно, мы 100500 раз всё перепроверили после этого, и всё оказалось хорошо 🙂(кроме граундинга, к нему вопросики)! Как бы всё прекрасно это не звучало, я бы хотел порассуждать, а что же это значит для меня лично.

Во-первых, я считаю что ребята в команде огромные молодцы! Без них такого бы точно не вышло!

Во-вторых, я бы интерпретировал результаты не как второе место, а как нестатзначимую разницу с конкурентами. Возможно, если бы семплов было в 10-20 раз больше, места в топе были бы другими (хотя сам топ вряд ли бы поменялся) 🧠.

Во-третьих, в каком-то виде это значит, что, по крайней мере, у нас внутри компании имеет смысл использовать собственную VLM, вместо опенсорса или API закрытых сервисов. И тут бы хотел поделиться ещё одной старой новостью (каламбур) 😊.

Мы тут на YaC (кстати, рекомендую глянуть) тизернули, что у нас есть такая премия, как НейроГусь — награда за внедрения нейросетей в рабочие процессы. Так вот наша команда становилась победителем этой преймии никак иначе, как за использование в VLM в автоматизации документооборота 🔼! И тут важно понимать, что это не только про то, что у нас качество самое самое, а в том числе, что это ещё и про стоимость инференса, поддержки и прочих манипуляций. Перемножая все эти факторы получаем, что да, как минимум для себя мы точно самые самые, и я правда считаю, что это крутецкое достижение 🌿!

Прикрепляю фотку в качестве доказательства, что НейроГусь существует 😀!

Ну а при чём тут Гусь? Давайте про это как-нибудь в другой раз!

11 декабря 2025 г.2.2K просмотроврепост из CV Time

Байки из склепа прода Alice AI VLM

Сегодня делимся двумя скримерами историями из первых рук о том, с какими сложностями столкнулись разработчики новой Алисы AI в продакшне.

Популярный сценарий использования нейросети — когда пользователь отправляет в чат картинку и просит помочь с тем, что на ней изображено. За этот навык отвечают Alice AI VLM и команда компьютерного зрения Яндекса, которая её развивает. Слово руководителю подгруппы распознавания текста в VLM Антону Клочкову @blog_toxa.

Проблема первая: пережатие картинок

Те, кто имел дело с сервисами, где есть работа с картинками, не дадут соврать: найти баланс между качеством и скоростью загрузки изображений — сложная задача. Иногда баланс перевешивает в одну из сторон, и в нашем случае была проблема качества.

Как-то во время тестирования Алисы AI прилетает баг-репорт: фотография из учебника и комментарий: «Формулы выписываются неверно!» (см. картинку 1).

Проверяем в тестинге — есть ошибка. Прогоняем офлайн через модель — ошибки нет. Странно? Очень!

Оказалось, что в продакшене сильно пережимаются изображения (см картинку 2). Из-за этого путаются мелкие обозначения, вроде знаков неравенства, и иногда теряется весь смысл. Фикс был простой: мы ослабили правила на пережатие картинок.

Проблема вторая: парсинг LaTeX

Наши первые шаги к тому, чтобы сделать Алису AI действительно умной, проходили в Поиске по картинкам — там уже была готовая инфраструктура, а в чате ещё требовалась донастройка.

Однажды пришла пора тестировать решение в сервисе. И в целом, всё было хорошо, кроме одной детали. Оказалось, что на разных поверхностях (в нашем случае — Поиска и Алисы AI) по-разному работают правила парсинга LaTeX-вставок в Markdown. Например, в Поиске по картинкам формулы отображались одним образом (см. картинку 3), а в Алиса AI — другим (см. картинку 4). И это было не единственное различие в парсинге.

Решили мы это в одних случаях дообучением VLM на форматы, в других — правками во фронтенде.

Алиса AI — это не только Alice AI VLM, о которой мы пишем в этом посте, но и Alice AI LLM, Alice AI LLM Search, Alice AI ART, а ещё много крутых инженерных решений. Если хотите больше технических деталей, советуем почитать свежий техрепорт. А ознакомиться с главными фичами можно на лендинге.

CV Time

29 ноября 2025 г.3.0K просмотров

Побубню за OCR

Тут у нас в CVTime вышел обзор DeepSeek-OCR в двух частях (раз, два), где задали интересный вопрос, на который я хочу попробовать развёрнуто подискутировать:

Нужно полный а4 лист текста прочитать за 1 секунду. Справится ? И чтобы не арендовать для этого суперкомпьютер, а например видюху уровня TESLAV100. Сомневаюсь. Даже обычные OCR работают очень долго - десятки или сотни миллисекунд. А LLM ки в продакшене для высоконагруженных систем, такое себе, если конечно вы не амазон или не гугл с бесконечными ресурсами

За последнее время понимание OCR сильно изменилось 😊: если раньше мы воспринимали этот процесс как извлечение текста и метаинформации о нём, то сейчас в основном это Image -> Markdown или KIE (Key Information Extraction). И конечно от тех, кто не погружен в область, достаточно часто можно услышать: а зачем нам ваш Paddle OCR или Yandex OCR, когда у меня есть замечательный Alice AI VLM/QWEN-VL/DeepSeek-OCR/Mistral OCR. Особенно это актуально в тех случаях, когда open-source классические системы проигрывают по качеству VLM.

Другой лагерь не про качество, а про скорость: "Да ентот ваш VLM жрёт знаете сколько? А работает долго! Пользователи не привыкли ждать! Особенно в такой простой задаче. А еще и мету отдавать не умеет." Обычно этот лагерь состоит из ребят, которые уже применяли OCR и что-то про него знают.

На самом деле, оба лагеря правы 😀, просто нужно выбирать инструмент исходя из своих потребностей и нужно будет идти на компромисс.

Что у вас на выходе? Выписать текст в виде markdown будет проще с помощью VLM — этот формат "нативнее" на мультимодальных сеток, нежели чем для OCR-системы. Post-processing результатов OCR для вывода в MD — это достаточно непростая инженерная задача.

Но если вам вдруг нужны координаты, например, для задачи фотоперевода, где важно на картинке поверх текущего текста наложить рендер переведенного текста, то здесь перспективнее использовать OCR. Хоть и куча бенчей, где VLM хороши в Grounding, но я пока еще не видел хорошей текстовой локализации в мультимодальности.

Что у вас на входе? Одно дело PDF-странички классических arxiv-like статей, другое дело — всевозможно по-разному расположенный текст на картинке. В этом случае вывод в MD для OCR становится очень тяжелой задачей , тогда как для VLM это вопрос максимум небольшого тюна.

Что с производительностью? VLM инференс будет кратно дороже OCR систем. Последние — это обычно каскад маленьких моделей и он работает часто супербыстро в том числе за счёт распараллеливания распознавания, в то время, как мультимодальные сетки обычно авторегрессионные, а потому генерация длинных текстов будет в десятки раз дольше.

Что с качеством? В проприетарной среде не всё так однозначно, но если говорим про open-source, то VLM однозначно по качеству извелечения текста будут в среднем выше. Думаю, тут не стоит объяснять, что на мультимодальные модели тратится существенно больше компьюта, нежели чем на OCR.

Если говорить про пример выше? Если говорим про домен из примера выше, что на A4 (условно статья arxiv) качество у VLM и OCR будет +- одинаковым, при этом OCR будет кратно быстрее и дешевле. Но если это будут A4 странички каких-будь буклетов, менюшек, постеров, то вероятно VLM будет использовать в этих доменах выгоднее.

Когда к нам внутри приходят ребята из разных команд, как раз наша задача проконсультировать их, как решать им задачу эффективнее: с точки зрения денег (стоимость разработки, стоимость компьюта), с точки зрения качества (смотрим на домены, оцениваем качество). И не всегда всё упирается в стоимость компьюта... Как-то так.

Расскажите, как у вас на практике с распознаванием текста? Для чего используете? Чего используете?

27 ноября 2025 г.2.4K просмотров

Qwen3-VL Technical Report

Ребята из поднебесной дропнули тех-репорт про свою VLM. Набросали 100500 бенчей (вау), показали как делать надо. Приятно наблюдать, как авторы всё больше тюнят подходы к данным и расширяют домены. Не так много нового, скорее хорошо проработанное старое.

Интересно, как некоторые подходы совпадают с нашими — значит не только у нас работает! Но общее направление мыслей как будто бы не поменялось с начала года и в этом плане в VLMках проиходит не так много "ноухау" обновлений.

Сетка хорошая, с приятной лицензией, обязательно пользуйтесь, если нужно решать задачи с картинками и есть деньги на компьют!

15 ноября 2025 г.1.6K просмотроврепост из КПД

На этой неделе ребята из команды YandexGPT совместно c ШАДом (Школа анализа данных) провели интенсив по работе с LLM 🤖, где были затронуты вопросы обучения, инференса и коммуникаций.

Материал довольно подробный и интересный, но требует определенной базы для вхождения.

В общем, рекомендую к просмотру всем интересующимся и желающим освежить знания.

Лекция 1: https://youtube.com/live/JMUWSdSD1Uk Лекция 2: https://youtube.com/live/IAeAKcdMtsw Лекция 3: https://youtube.com/live/BYiFv5PoMBw Лекция 3.1: https://youtube.com/live/-52RgKQENl0 Лекция 4: https://youtube.com/live/VXI41kyQTPs Лекция 5: https://youtube.com/live/AHMJICS2JQ0 Лекция 5.1: https://www.youtube.com/live/3v43mnx31OQ

11 ноября 2025 г.2.6K просмотров

LaTeX и ентот ваш produnction

Я наконец-то расквитался со всем запусками и релизами за последнее время и готов чего-то написать. Кстати, кто не знал, последний релиз был в прошлую пятницу в Маркете 🤔.

Давеча я просматривал ML Party в Белграде, и наткнулся на упоминания себя примерно здесь: https://www.youtube.com/watch?v=b4p38qdguis&t=2141s (таймкод важен). И могло показаться, что я разломал прод 👨‍🦳! И да, и нет — давайте разбираться. Спойлер — меня ещё не уволили 😀

Важная ремарка: хоть и в ролике говорится про "меня", но на самом деле идёт речь про нашу команду. Я, конечно, ещё достаточно много чего делаю своими руками, но куда больше и значительнее делают ребята!

В действительности, в определённый момент мы готовы были выкатить модельку в прод. Как и полагается, покатили на тестовый стенд и получили безумие! И это подтверждает некоторые байки о кровавом produnction (олды помнят).

Дело обстояло так: мы всё отлаживали в одной поверхности (и тестировали, и людьми смотрели) — всё было хорошо. Какого было наше удивление, когда всё разломалось в другой поверхности. И сначала, конечно же, гнали на то, что с моделью как-то не так, и она вообще какая-то не такая. Но на самом деле, всё немного на так 😊.

Представим себе, что у вас есть множество фронтендов: пару приложений (а на самом деле больше), несколько веб-поверхностей, ещё что-нибудь в придачу. Вы, конечно, можете с помощью системного промпта придумать, как удовлетворять формату каждого фронтенда, но в реальности — это безумие! Я просто даже не хочу писать про то, какой ад с тестированием начнётся, сколько всего вам нужно будет перепроверять, каждый раз переобучая модель 🔥.

Другой разговор, когда у вас всё же модель отдаёт единый формат. И каждый фронтенд разбирает по-своему то, что ему прислал бекенд (в нашем случае модель), исходя из своих правил. У вас есть большой плюс с точки зрения обучения модели: нужно тестировать только один формат, а не большое множество. В нашем случае так и оказалось — нужно было сделать некоторые правки в парсинге и всё встало на свои места 🤨.

"Кровавость" produnction'а в большей части состоит из таких моментов. Ты приходишь со своим ноу-хау в большую систему и нужно учесть иногда то, что ты даже не знаешь 🏥. И вот сколько вещей получится узнать — большую роль имеет опыт, насмотренность на системы, когда на уровне интуиции имеешь представление, что может пойти не так.

28 октября 2025 г.3.4K просмотров

Алиса AI

У нас сегодня мега крупный запуск 🤔. Мы представили нашего обновлённого ассистента и семейство моделей, сидящих под капотом!

Мы шли к этому многие месяцы, кучу компьюта было потрачено на бесчисленные эксперименты. Безумно рад за свою команду: труды абсолютно каждого человек поучаствовали в нём, чтобы сделать ассистента полезнее для наших пользователей!

Все новшества и улучшения сложно описать в посте, да и не нужно.

Всё есть на лендосе здесь — https://alice.yandex.ru/about!

Ну и давайте накидаем тут 🔥, мы все очень сильно старались!

27 октября 2025 г.3.0K просмотров

Yandex Cup 2025

Как обычно, рассказываю в последние часы! До 29 числа у нас открыта регистраци на Yandex Cup. Два года я участвовал в качестве придумщика задач, а в этот год отошёл от дел. Тем не менее часть ML задач делали ребята из нашей команды, а потому зову вас поучаствовать!

В этот раз задачи: — Генерация картинок видеосенсора для автономного автомобиля; — Ответы на вопросы к чертежам для задач по физике и математике; — Устойчивость к галлюцинациям в больших языковых моделях.

Крч, го участвовать (ну я не смогу, потому что знаю, где лежат данные для скоринга, хе-хе-хе)!

Ссылка на участие.