R77 AI | Кейсы в ИИ (от выпускников МФТИ)
@r77_ai·Фаундер
AI-саммари
3 из 4 AI-пилотов не взлетают — и R77 говорит об этом публично, не прячет в кейс-стади. Ярослав Шмулев (выпускник МФТИ, ex-CPO B2B Joom) строит production ML-системы для энтерпрайза и фиксирует рыночный сигнал первым: договоры на разработку уже включают пункты об AI-авторстве кода и возмещении убытков от галлюцинаций — маркер взросления рынка. Агенты — «нерабочая история» там, где качество критично; MCP бесполезен без LLM-клиента на стороне заказчика; масштаб считается не на человека, а на единицу контента. YaGPT, Claude, DeepSeek, Qwen под разные задачи; RAG для Альфы — гибридный поиск (BM25 + эмбеддинги + YaGPT) с LLM-as-a-Judge и гуардрейлами, снижение тикетов на 40%; там, где нужна агрегация — structured output и лёгкие LLM вместо векторных баз. CV — на YOLO-стеке с ручной нарезкой карт: свинофермы, целлюлозное производство (100% точность по сорту древесины), металлургия, ферросплавы (−3–5% затрат, сотни миллионов в год) и хакатон Роснефти (4-е место, 0.973 mAP, дисквалификация из-за лицензии Ultralytics).
Распознавание исторических документов
К нам в гости придут Руководитель Анна Пятаева и Кожин Константин ведущий ML-специалист Центра искусственного интеллекта СФУ расскажут, как в Красноярске используют ИИ, чтобы «читать» исторические документы и сохранять культурное наследие.
Зацените скрин из презентации — там очень интересно)
В среду в 15-00 у нас в @r77_ai
Вот ссылка на календарь
можете писать вопросы кстати уже сейчас под постом)
Стартуем "RAG без ембедингов" здесь https://meet.google.com/cub-fqao-sjb (трансляция в тг не работает, но оставили для того, чтобы нотификейшн был).
Вопросы спикеру тоже тут)
RAG без ембедингов сегодня в 15-00)
RAG без ембедингов
В следующий четверг у нас Николай Шейко из офигенного канала про AI "AI и грабли".
Вот что расскажет: "В индустрии давно укоренилось мнение, что Retrieval-Augmented Generation (RAG) = эмбеддинги. Но что, если поиск по эмбеддингам — не всегда лучшее решение?
В этом вебинаре я расскажу, как можно строить RAG без единого эмбеддинга, используя только легкие LLM с structured output. Например, я запускал LLM поверх сырого контента (вроде PDF), разбивал его на страницы и делал классификацию релевантности прямо в модели. Такой способ давал ощутимо лучшее качество, особенно когда нужна агрегация".
Мы обсудим: • Почему эмбеддинги часто не работают так, как хочется • Как использовать LLM как search engine без векторных БД • Что такое structured output и как он помогает • Кейсы, где подход без эмбеддингов оказался сильнее (вплоть до призовых мест на Enterprise RAG Challenge) • Когда всё же стоит вернуться к классике с векторками.
Четверг, 14 августа, 15-00)
Ставьте нотификейшн! ура у нас снова разрабская тема)
Да кстати особенно велком — разрабы с разрабскими темами — у нас их любят)
Вот наш вебинар с нашим разработчиком Мишей про Text2sql https://t.me/r77_ai/202
В общем ml-разрабы велком @savinvlad
Ищем спикеров)
ребят продолжаем наши встречи-вебинары, если кому-то есть что интересно рассказать про AI гоу ко мне в личку @savinvlad)
У нас уже были директор по AI-трансформации Сбера Никита Худов, лиды из Альфы и Т-банка, тех. директор Циана Алексей Чеканов...
в общем отличная компания)
Выступили по старой памяти на Дизайн-просмотре)
Рассказывал, как делаем R77 AI)
LLM как источник консолидированных знаний
Занимаясь проектом по реализации синтетических пользователей для ускорения извлечения инсайдов с помощью LLM в custdev-ах, пришел к интересному наблюдению.
В нашем мире знания распределены между различными отдельными инстансами (людьми, книгами, и т.д.), в случае с людьми - очень смещенными. Интернет – это пример первого удобного источника агрегированных знаний (до него, например, были библиотеки / энциклопедии). LLM – это новое поколение инструментов с консолидированными знаниями (для меня это еще одно объяснение, почему LLM так хорошо зашли: многие мои знакомые теперь идут в deepseek, а не гугл, чтобы понять как сделать VAT refund в поездке или понять что делать с отменой рейса).
Рассмотрим на примере custdev-ов (глубинных интервью).
Раньше: 1. Выбираешь целевой сегмент пользователей 2. Формулируешь гипотезы болей 3. Собираешь 20-30 человек 4. Проводишь интервью, спрашиваешь о том, что “болит” 5. Собираешь транскрипты, фиксируешь инсайды (субъективно относительно того, что проводит custdev) 6. Делаешь саммари 7. Формулируешь идеи / гипотезы продуктов 8. Делаешь корректировки и повторяешь процесс ** Шаги 5-6-7 – это переход от отдельных смещенных инсайтов к агрегированному “знанию”
С приходом LLM как это выглядит теперь: 1. Выбираешь целевой сегмент пользователей – через промпт 2. Формулируешь гипотезы болей – через промпт (+ задаешь контекст) 3. Получаешь инсайды уже в виде саммари и идеи
Почему так? Внутри LLM уже содержится информация по всем-всем вариантам (которые встречались при обучении конечно), и ее ответ УЖЕ агрегированная информация. Нет смысла генерировать 30-50 диалогов с пользователями (тут есть отдельный риск, какой кстати?) и потом делать саммари (через ту же GPT). В реальной жизни без LLM мы так делать не можем – надо сэмплировать знания из отдельных людей и потом агрегировать.
P.S. в этом посте я намеренно не рассуждаю на тему репрезентативности инсайдов от “синтетиков” и не говорю о том, что привычные custdev-ы больше не нужны. Мне интересно посмотреть и порассуждать в комментах на интересный кмк переход и к чему он может привести.
Оборудование для AI внутри контура
Ребят, ищем спикера на вебинар наш, кто внедрял у себя on-premise инфраструктуру под AI, как закупали, что закупали, как рассчитывали нагрузку, как масштабировали, сколько вышло по деньгам)
Может кого-то сможете порекомендовать.
Поставьте палец вверх, если интересная тема 👍
Напишите мне плиз @savinvlad
RAG — можно ли запилить коробку? Выложили вебинар!
Наши гости: https://t.me/lead_indeed — Лиза http://t.me/chernous — Дима http://t.me/neuraldeep — Валерий
https://vkvideo.ru/video-228941334_456239052
https://youtu.be/Q2W66UQG_v0
"Как понять, что свинюшка готова к любви?" — Выбрались на Хабр)
Что-то мы припозднились с Хабром, но вот наш кейс со свинюшками и их овуляцией одобрили в песочнице)
Поставьте лайк, чтобы туда побольше писали)
Ктсати много новых подписчиков, а это наш самый известный кейс, загляните: https://habr.com/ru/articles/924536/
AI в продуктах: где заканчивается алгоритм и начинается опыт
Ура, выложили вебинар с Алексеем Курлаевым:
https://vkvideo.ru/video-228941334_456239051
https://youtu.be/ZrJbj5_YtLM
Шаблон ТЗ для AI-проектов
Сделали простую и понятную таблицу, по которой можно быстро собрать внятное техническое задание на AI. Подходит и тем, кто только начинает, и тем, кто внедряет серьёзные корпоративные решения.
Вы конечно можете просто обратиться к нам, чтобы мы сделали ТЗ, но для своих нужд будет очень полезно)
Зачем нужен: — Понять, как пишется ТЗ и не тратить время на его придумывание и разработку. — Чтобы зафиксировать задачи, метрики, ограничения. — Чтобы не забыть про данные, пользователей, интеграции. — Чтобы быстрее согласовать проект с подрядчиком или внутри команды.
Что внутри: — Все ключевые разделы: от целей и сценариев до архитектуры, данных и рисков. — Примеры формулировок — чтобы проще было писать. — Подходит для всего: от автоматизации одного процесса до больших AI-систем в компании.
Пишите что еще бы добавили)
https://docs.google.com/spreadsheets/d/1fF-lVtNaULAfSQI7tqPUnxjYmLAnOJ2rGoEDX4thNrQ/edit?usp=sharing
Стратегия AI-трансформации на миллиарды — выложили вебинар с Никитой Худовым (Руководителем AI-Сбер-трансформации)!
https://youtu.be/_9UphFFR4FM
https://vkvideo.ru/video-228941334_456239050
AI на производствах и Иван Иваныч)
Ребят, спасибо, что пришли на вебинар — 140 онлайна)
А вот показываем работу, которая возможно только в оффлайне — на производствах. Сходили к "Тракс/КСК" — они делают сложнейшие климатические установки, например, на "Ласточки" и "Иволги", сложность в том, что они огромные, а поезда несутся со скоростью в несколько сотен километров)
Задачи перед "Тракс" стоят, как и по работе с технической документацией, там 200+ конструкторов, так и с компьютер вижн на производстве деталей.
Причем сотрудники в особености Владимир (на фото) разбираются в ИИ и говорят профессиональными терминами, знают RAG, векторные БД и т.д., в шутку технический директор ИИ называет ИванИваныч))))))
Вот фоточки:
RAG-вебинар — начали! Пост для вопросов!
RAG — можно ли запилить коробку?
Вернулись к тех. вебинарам после более бизнесово-менеджерских)
Позвали наших друзей Елизавету Ермакову, Диму Черноуса из МТС AI и Валерия Ковальского из Neural deep tech, чтобы обсудить, что сейчас больше и больше приходит запросов от супер разных бизнесов на реализацию разных ассистентов с RAG под капотом. Не все могут позволить кастом, да и многие пилят свою "коробку". Интересно – можно ли вообще сделать коробку RAG (и если да, то в рамках каких ограничений).
А вот конкретно: 1. Единый чат-бот (ассистент по знаниям) vs. отдельные сценарии / кейсы. Почему Валера не делает чат-ботов. 2. Коробка RAG vs. Кастом. Какие ограничения технологий. Можно ли поставить коробку где retrieval будет работать. 3. Входной порог к разработке своих решений. vibe coding. 4. Поделиться байками (как многие не понимают что такое RAG, делают FTS, называя это ИИ и тд)/фейлами (типо cost выше стоимости лицензий и тд).
В среду в 16-00, ставьте нотифай в трансляции, ну и в календарик вот
ТОП-7 в России. ТОП-2 в Москве.
Вот такими новостями заканчиваем неделю. Взяли топовые места по "Разработке и внедрению ИИ" в самом конкурентном рейтинге "РейтингРунета".
Вообще у нас по планам быть топ-1, но нам меньше года, хотя опыта у нас 10+ лет)
Спасибо, что вы с нами — мы специально выбрали быть публичной компанией, то есть делать тг-канал, коммьюнити, вебинары, статьи, уже и офлайн движи, чтобы получать проекты открыто, а не где-то в кулуарах, и вы нам с этим очень помогаете, очень вас благодарим)
Поставьте нам сердечко плиз, порадуемся вместе)
Стартуем — Пользовательский опыт в AI) пост для комментов
Пользовательский опыт в AI
Раньше мы всегда пилили жесткий ML на бэке, но сейчас все чаще берем готовые LLM и задумываемся, что делать на фронте, в общем-то становимся дизайнерами)))
Вот, чтобы в этом разобраться позвали — Алексей Курлаева, он руководит пользовательским опытом в Сбере, то есть как раз соединяет ИИ-интерфесы с человеком.
Что обсудим: Тема: AI в продуктах: где заканчивается алгоритм и начинается опыт Тезисы: 1. AI меняет не только интерфейс, но и логику анализа пользовательского опыта 2. Не каждый сценарий — для AI: где заканчивается классический UX, и начинается когнитивная автоматизация 3. Внедрение AI требует новой продуктовой логики: сценарии → границы → масштабирование
Завтра в 16 у нас на канале) Ставьте нотифай или в календарь )