GigaChat
4 автора упоминают этот инструмент
Как из фронтендера стать AI-инженером
Термин "AI-инженер" я подсмотрел в роадмапе AI-инженера, ссылкой на который недавно делился Саня Стародубцев.
Я ведь недавно и сам перешёл из фронтенд-разработки в разработку AI-агентов, поэтому мне стало интересно, стал ли я AI-инженером? Мой собственный опыт "переквалификации" не совсем ложится на эту дорожную карту. Есть ещё один роадмап, вот этот, но там порядок тоже не совсем такой, как у меня. В общем, решил поделиться здесь своей альтернативной версией)
Пререквизиты Опыт работы с бэкендом всё-таки понадобится. Одной фронтенд-экспертизы явно будет недостаточно. Работать с API нейросетей скорее всего придётся с бэкенда. С фронта тоже можно, конечно, но в этом есть большой риск утечки вашего API-ключа. Благо у нас, JavaScript-разработчиков, с этим проблем нет))
Впоследствии, конечно, нужно будет углубляться в бэкенд-разработку и заполнять пробелы, если они есть. Но для старта вполне достаточно умения развернуть сервер на Node.js.
Нужен ли ML? Здесь ситуация чем-то напоминает необходимость изучения алгоритмов для junior-фронтендера в 2019 году. Вызвать API DeepSeek можно и без знания линейной алгебры. Но я бы всё-таки порекомендовал хотя бы в фоне изучить этот бесплатный вводный курс по ML от Google. Очень поможет снять розовые очки и демистифицировать работу самих LLM.
Пишем чат-бота Прям сразу. На практике разбираться будет проще всего. У меня всё началось с телеграм-бота, и я всем советую начинать с простых текстовых чат-ботов. Для этого придётся изучить работу с текстовыми сообщениями в OpenAI API или DeepSeek API. Лично я рекомендую начать с руководства GigaChat API, т.к. оно на русском языке, а многие концепции у разных моделей очень схожие. Бесплатных токенов за регистрацию в GigaChat API будет более чем достаточно для старта.
Учим чат-бота выполнять функции Их ещё называют tools. Об этом у меня тоже был пост и примеры кода к нему на JS и на Python. Они нарочно очень простые. У GigaChat тоже есть статья с примерами. А если хочется чего-то совсем запутанного, можно взять шаблон чат-бота из Vercel AI SDK в качестве референса.
Векторные хранилища и RAG Про векторы есть отличная глава в упомянутом мной выше курсе от Google. В роадмапе AI-инженера, кстати, тоже неплохие ссылки по этой теме в разделах Embeddings и RAG.
Фреймворки Лично я пока продолжаю погружаться в LangChain. Я уже трижды выступил с докладом про этот фреймворк (в последний раз — на MoscowJS), выпустил два поста с ответами на вопросы (раз, два) и всё ещё не погрузился до конца)) По этому фреймворку есть миллиард примеров от моих коллег из GigaChain: есть примеры на Python, JavaScript и даже на Java. А от создателей LangChain есть кайфовый видеокурс по LangGraph. Он на английском, но его легко смотреть, даже не зная Python и не зная LangChain.
Источники новостей и апдейтов Очень удобно получать новости с конференций вроде нашего недавнего BigTechNight или с HolyJS, где я тоже скоро буду выступать. Или c разделов на Reddit о тех инструментах, которые вы используете (я, например, читаю в основном про LangChain). Ещё есть Matt Pocock, который параллельно с нами перешёл из TypeScript гуру в гуру нейросетей, выпускает неплохие статьи и видео. Громкие новости об обновлениях у моделей OpenAI / Anthropic / DeepSeek и т.д. всё равно не удастся пропустить. Остальные рандомные новости из соцсетей, кстати, наоборот стараюсь фильтровать: в X что ни пост — так очередная технореволюция)) Хотя, возможно, кто-нибудь в комментариях тоже поделится неплохими источниками информации)
Ответы на вопросы с MoscowJS, часть 2 Первая часть была опубликована вчера.
Спасибо Ане @it_wildlife за тестирование антиспама в комментариях — благодаря вчерашним тестам мне удалось обойти проблему в Telegram API, из-за которой комменты от ботов тяжело отличить от комментов, оставленных от имени Telegram-канала.
Теперь бот не будет так бурно реагировать на комменты от имени каналов. Ну а я продолжаю отвечать на оставшиеся вопросы:
Использовал ли ты прокси gpt2giga, чтобы уметь перенаправлять запросы из OpenAI без дополнительных костылей и накладок на несовместимые апи? Пока нет, но у меня есть идея, куда его прикрутить: я развернул LangFuse, и в нём помимо трейсинга есть LLM Playground. И, кажется, gpt2giga должен помочь превратить его в GigaChat Playground)) Посмотрим, получится ли)
Векторизацию и векторные базы данных используете если много текста отправляете в ИИ? Расскажите подробнее про это Много текста я не отправляю — контекст у бота ограничен одним постом из телеграма и некоторыми комментариями под ним. Пока этого хватает, но если буду расширять функционал, в LangChain есть поддержка векторных хранилищ.
Есть ли смысл использовать LangChain, если используется только одна апишка? Если вы уже знакомы с LangChain, то думаю, что да, в таком случае смысл есть)) Хотя бы даже ради трейсинга и первичной отладки приложения через LangSmith. Причём для этого достаточно использовать LangChain по минимуму — только для вызова LLM. Всё остальное можно писать на чистом JS/Python.
Получается, если LLM возвращает нормальный JSON, то можно спарсить значение и прогнать логику, к примеру, забанить пользователя за спам? Насколько это рабочая тема на практике? Всё верно. На практике это решение не просто рабочее, а можно даже сказать целевое)) Ну или как минимум одно из целевых, если речь идёт об обработке инпута на естественном языке. Единственное, мне кажется, не стоит использовать его для тех задач, которые можно решить и без LLM.
Если не секрет, какой бюджет уходит на поддержание этого ежемесячно? Бот хостится на бесплатной VM от Cloud.ru. А токенов за месяц у меня расходуется примерно на 300-350 рублей. Но у меня ещё лежит неиспользованный бесплатный миллион токенов GigaChat Lite, и если использовать ещё и их для каких-нибудь простых задач, то выйдет дешевле.
Правильно ли я понимаю, что LangChain - это аналог LangFlow, но без графического интерфейса, и зато с большей гибкостью? Какие плюсы и минусы? Да, LangFlow — no-code/low-code фреймворк, поэтому если сравнивать его с code-first фреймворком вроде LangChain, то плюсы и минусы будут зависеть от того, любите вы писать код или нет)) Если нужно набросать какой-то небольшой прототип или Proof of Concept, то low-code подход, наверное, должен быть более удобным, но лично мне было бы проще навайбкодить код написать)
Пора переучиваться на инженеров нейросетей?) Пока получается переучиваться только в инженеров фреймворков для работы с нейросетями)) Но это тоже неплохой старт, я считаю)
Знаком ли с AI SDK от верцелей? Довольно хорошо подходит для твоей задачи. Тоже абстракция над всеми провайдерами, но вот langchain уровнем выше имеет другие фишки типа для RaG, эмбдингов, сторить всё и т.д. Пока не пробовал, но, судя по документации, инструмент действительно похож на LangChain. И скачиваний в npm у Vercel AI SDK больше. Нужен отдельный доклад с разбором их абстракций))
Анти-спам для канала
Устал удалять спам-комментарии вручную, пора задуматься над тем, как это автоматизировать.
Решение в лоб Задача кажется простой, ведь в API телеграма есть флаг is_bot, про который написано: True, if user is a bot. Можно было бы просто удалять сообщения на основе этого флага, или даже банить.
Изначально я так и сделал, и чуть не забанил сам себя — оказалось, что если написать комментарий от имени канала, то ты тоже становишься is_bot: true))
Другим решением могло бы быть создание какого-нибудь словаря из стоп-фраз и проверка вхождения подстроки, но я решил сразу перейти к ИИ.
Решение с ИИ Буду использовать GigaChat-2-Pro (потому что от него у меня ещё остались токены).
В GigaChat я отправляю текст поста, текст комментария и инфо об авторе, а он возвращает мне оценку вероятности спама. В процентах.
Сейчас он плохо распознаёт комментарии от спам-ботов, которые напрямую ничего не рекламируют, над этим я ещё буду работать.
Тестируем Бот будет оценивать каждый комментарий на предмет спама и будет ставить реакции на комментарии в зависимости от его оценки.
Градация следующая: 0% — ❤️🔥; 1 - 25% — ❤️; 26 - 50% — 👍; 51 - 75% — 🤔; 75 - 99% — 😡; 100% — 🤬;
В случае ошибок бот будет ставить "🤷🏼♂️"
Отредактировано: тестирование закончено, всем большое спасибо))
Пример AI-агента на GigaChat
В дополнение к предыдущему посту решил развернуть на gitverse репозиторий с простым AI-агентом на GigaChat.
Там как раз показан пример того, как можно работать с функциями.
- Общаемся с GigaChat прямо через терминал.
- Если при общении с вами GigaChat поймёт, что вы хотите «посмотреть логи сервера», то он сам вызовет функцию отправки логов в терминал.
Вот вам и взаимодействие нейросети с внешним осязаемым миром Точнее, с одной конкретной функцией на вашем сервере))
Но этот пример нарочно сделан простым, чтобы на его основе можно было понять механизм работы функций и самые основы создания AI-агентов. Масштабировать этот подход вы сможете бесконечно))
Главное, не забывайте сообщать нейросети о том, что ваша функция выполнена — иначе на каждое ваше последующее сообщение нейросеть будет заново возвращать признак вызова функции. И ваш сервер будет выполнять её каждый раз.
Но в моём примере это учтено))
Как заставить нейросеть выполнить ваш код на JS или Python
Нейросети вроде ChatGPT, DeepSeek или GigaChat можно научить взаимодействовать с окружающим миром: менять файлы на вашем диске, вызывать сторонние API или выполнять иные задачи в живом окружении.
Это делается довольно просто, и у большинства нейросетей применяется один и тот же подход: как у ChatGPT или DeepSeek, так и у GigaChat. Все они умеют работать с функциями.
Что такое функции Если мы посмотрим на API любой нейросети, то функции там будут выглядеть непривычно. Вот пример функции из документации GigaChat:
{ "name": "weather_forecast", "description": "Возвращает температуру на заданный период", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "Местоположение, например, название города" }, "format": { "type": "string", "enum": [ "celsius", "fahrenheit" ], "description": "Единицы измерения температуры" }, "num_days": { "type": "integer", "description": "Период, для которого нужно вернуть" } }, "required": [ "location", "num_days" ] } }
Функция — обычный JSON.
Какой код эта функция выполнит? Здесь всё просто. Никакой)) До тех пор, пока мы сами его не напишем. Поэтому придётся по-старинке объявить где-то у себя в коде обычную функцию с названием weather_forecast, как в поле name в объекте выше. Принимаемые параметры тоже делаем такими же, как в описании. И реализацию этой функции тоже пишем сами.
Как нейросеть сможет её вызвать? Нам нужно сообщить модели о том, что у неё есть такая возможность. Для этого передаём описание этой функции в запросе API нейросети, прямо вместе с вашим текстом.
Вот пример тела запроса с функцией в GigaChat API:
{ "model": "GigaChat", "messages": [ { "role": "user", "content": "Погода в Москве на три дня" } ], "function_call": "auto", "functions": [ // Добавляем все свои функции вот сюда ], }
У ChatGPT это работает похожим образом, даже названия полей местами совпадают.
Что происходит дальше? Модель распознает ваше сообщение и самостоятельно примет решение о том, нужно ли ей вызывать какую-то из функций, которые мы ей передали. Решение будет приниматься на основании вашего сообщения и текстовых описаний того, что функция делает и какие параметры принимает.
Если нейросеть посчитает, что функцию вызвать нужно, она вернёт в ответе название этой функции и параметры, которые нужны для её вызова. А нам остаётся сделать условный:
const { function_call } = response.message // проверяем, что в ответе от нейросети есть признак вызова нашей функции if (function_call.name === "weather_forecast") { // вызываем функцию, которую сами же и написали weather_forecast(function_call.arguments) }
Всё. Естественно, вместо прогноза погоды функция может быть любой.
Мой бот, например, присылает мне в телегу логи с сервера, если я достаточно вежливо его об этом попрошу)
А в Python у библиотеки LangChain есть специальный декоратор tool, который упрощает создание функций. Если внутрь функции с этим декоратором добавить описание в docstring, то библиотека сразу сформирует нужную структуру, готовую для того, чтобы передать её в нейросеть.
Маршрутизация LLM через промпт или через tools
Я никакой не Data Scientist, я просто фронтендер. Но даже фронтендеру иногда бывает интересно, что лучше отработает — обычный промпт типа такого: Верни слово "auto", если пользователь говорит про автомобили. Верни слово "movie", если пользователь говорит о фильмах… или передача в LLM функций (или тулов) с описанием каждой из категорий, между которыми LLM нужно сделать выбор.
И да, эту задачу можно было бы решить и с помощью векторов, но мне захотелось сравнить именно эти два подхода.
Первый способ может показаться ненадёжным и контринтуитивным — мы ведь не используем structured_output, поэтому ответ модели здесь не так строго типизирован, как во втором случае. Но так ли всё просто?
Как я сравнивал промпт и тулы — Написал первый промпт. Он будет проверять, насколько хорошо LLM маршрутизирует, используя обычное текстовое описание: Твоя основная задача — правильно определить категорию вопроса пользователя. Если вопрос касается автомобилей, ответь "auto". Если вопрос касается кораблей, ответь "ship". Если вопрос касается фильмов, ответь "movie". Если вопрос касается мотоциклов, ответь "moto". Если вопрос не относится ни к чему из вышеперечисленного, ответь "incorrect". Если из фразы клиента не удалось понять, к какой категории относится вопрос, задай клиенту уточняющий вопрос.
— Второй промпт выглядел так же, как и предыдущий, но без описания категорий — их я вынес отдельно в функции. Этим промптом я буду проверять качество маршрутизации с помощью тулов. Получилось в итоге следующее: Твоя основная задача - правильно определить категорию вопроса пользователя. Если из фразы клиента не удалось понять, к какой категории относится вопрос, задай клиенту уточняющий вопрос.
— Описал 25 тестовых фраз и их ожидаемый результат по каждой из них.
— Запустил все 25 тестов с первым промптом, затем 25 этих же тестов со вторым промптом и тулами.
— Повторил проверки на шести разных моделях GigaChat и на DeepSeek.
Результаты Что касается DeepSeek, то почему-то даже на один мой запрос их API отвечал целых 5 секунд, поэтому он выбыл из гонки, так особо в ней и не поучаствовав.
А вот GigaChat показал интересную статистику:
Во-первых, промпт с тулами отрабатывал в среднем в 2-3 раза медленнее обычного текстового промпта — 25 вызовов GigaChat с текстовым промптом отрабатывали за 6-8 секунд, в зависимости от модели. А 25 запросов с тулами занимали в сумме от 18 до 23 секунд.
Во-вторых, промпт с тулами расходовал в 2-3 раза больше токенов — от 800 до 2300 за обычный текстовый промпт, и от 2400 до 4600 токенов за промпт со structured_output.
В-третьих, structured output не всегда давал 100% точность. Было интересно увидеть, как GigaChat-Max и GigaChat-2-Max с обычными текстовыми промптами показали максимальную точность (25 из 25) среди всех моделей.
Что ещё более странно — наименьшую точность среди всех моделей показали эти же GigaChat-Max и GigaChat-2-Max со structured_output (21 из 25).
Я понимаю, что объём тестовых данных у меня совсем небольшой. Уверен, что если бы тестов у меня было не 25, а 25000, то результаты, скорее всего, были бы совсем иными.
Но в любом случае результаты меня очень удивили. Проверяйте свои инструменты внимательно под каждую задачу))
Анти-спам для канала, часть 2
Каждый комментарий на моём канале проверяется на спам, об этом у меня недавно выходил пост. Если вкратце — я скармливаю текст комментария в GigaChat вместе с системным промптом, и GigaChat оценивает, является ли комментарий спамом.
У этого решения есть проблема У GigaChat есть тематические ограничения запросов — если затронуть одну из запретных тем, GigaChat не будет обрабатывать такой запрос.
Получается, если чей-то комментарий не понравится гигачату, то я получу просто стандартную ошибку. Эта ошибка не содержит информации о том, являлся ли комментарий спамом, или просто кто-то конструктивно, но очень грубо выражался)
Причём тут GitHub Models Во вчерашнем посте про бесплатный доступ к моделям OpenAI я затронул LangChain, который стандартизирует обращения к API разных моделей. У GigaChat тоже есть своя библиотека для интеграции с LangChain, и мой антиспам бот написан на ней.
Это означает, что при желании мне не составит никакого труда переключить анти-спам на любую другую модель. Например, на бесплатную GPT-4.1, которая хостится на Microsoft Azure.
Что это даёт У Microsoft Azure тоже есть правила фильтрации запросов, но их сообщение об ошибке более информативное.
В случае срабатывания фильтров Azure я получую 400-ую ошибку и объект content_filter_results. В нём будет указано, какие именно фильтры сработали. Кстати, там даже есть фильтр на попытки промпт-инъекций.
Дальше всё просто Если GigaChat откажется проверять комментарий на спам из-за того, что в нём затронуты запретные темы, я просто переотправляю этот же комментарий в GPT-4.1 на Azure. В результате я либо получу результат проверки на спам от GPT-4.1, либо получу инфо о том, почему срабатывают фильтры.
Лимитов на бесплатное использование Azure как раз хватит, чтобы обрабатывать такие редкие кейсы.
P.S. В комментариях к предыдущему посту вы предложили много других сервисов для работы с LLM. Спасибо! Планирую воспользоваться всеми, сделаю сравнение по разным параметрам: фильтрам, лимитам, скорости и т.д.
Случайно увидел, что отработал в Сбере уже 10 лет))
Странно, что внутренний портал не предупредил даже)
Материалы с доклада про LangChain
Вчера рассказал этот доклад на @moscowjs. Если вы не были на митапе — есть ссылка на запись. Если были — ссылка на форму обратной связи по организации митапа))
Делюсь презентацией и ответами на первую половину вопросов к докладу (вторая половина будет завтра).
У GigaChat стоимость токенов в 7 раз выше, чем у DeepSeek/Gemini/ChatGPT. Почему GigaChat стоит дороже иностранных ИИ в 7 раз? Сами какую ИИ используете на постоянку? В основном использую как раз GigaChat из-за простоты оплаты в РФ. Там есть Free Tier токены, а платного пакета мне хватает почти на год использования. Последний раз пополнял баланс в декабре прошлого года, израсходовано чуть больше половины.
Как на спам сообщениях не разориться на токенах? Я сейчас доделываю whitelist, чтобы проверка на спам не выполнялась для комментариев от доверенных авторов (которых у меня в канале почти 100%). Но если будет резкий наплыв с тысячами комментов в час — разорюсь, конечно. Сначала израсходуются токены GigaChat на оставшиеся 800 рублей, потом израсходуются мои $8.5 из OpenRouter, и дальше антиспам будет падать в ошибки, придётся закрывать комментарии и вручную чистить спам. Но скорее всего я закрою комментарии раньше, чем израсходуются все токены — бот мне репортит в личку каждый раз, когда удаляет чьи-то комментарии.
Есть ли в LangChain.js встроенные механизмы для уменьшения затрат на API-запросы (например, кэширование, чанкинг)? Про caching на стороне LangChain есть только вот эта дока, которая наполовину депрекейтед (используется старый класс Openai). Но сам способ в ней описан рабочий — если передать cache: true при объявлении экземпляра класса работы с LLM, то при одинаковых вводных параметрах LLM второй раз не вызовется. Ну и плюс на стороне самих моделей есть механизмы кэширования, правда они везде свои. У GigaChat, например, это вообще заголовок, который через LangChain.js туда не передать. Это как раз один из кейсов, когда приходится вызывать LLM напрямую, минуя LangChain.
В LangChain для каждой нейросети нужно вставлять токен? А если у какой-то нейросети токен закончится — что будет? Будет то же самое, что и без LangChain. LangChain отправит запрос, нейросеть ответит какой-нибудь 403 ошибкой. Но на эти случаи в LangChain можно делать fallback на другие модели.
У вас было много ИИ, все платные, видел DeepSeek, OpenAI, GigaChat, нет ли проблем с оплатой, поддержанием всего этого? А главное зачем? Если они все примерно одинаковые и можно использовать одну ИИ с тем же результатом. А для многих ИИ ещё и прокси нужны, нет ли сложности поддерживать весь этот зоопарк ИИ? С поддержкой проблем нет, LLM для LangChain это всего-лишь строчка с ключом в .env файле и экземпляр класса LLM, который лежит спокойно себе в каком-нибудь файле models.ts в проекте. В этом LangChain как раз и удобен — переключаться между разными LLM с ним очень просто. А вот с оплатой OpenAI и DeepSeek проблемы, конечно, есть. Я писал пост о том, как вызывать OpenAI бесплатно через github models, но там лимит на 50 запросов в сутки, и меня там забанили. Поэтому GigaChat, тем более там 1 млн токенов GigaChat Lite выдаётся бесплатно)
Какой конкретный бизнес профит от этого использования? Если не брать в учет арбузики Как это не брать в учёт арбузики? А вообще, если вопрос о бизнес-профите канала, то его нет, это хобби. А если речь о том, есть ли бизнес-профит в LangChain — тут скажу, что трейсинг запросов через инструменты вроде LangSmith порядочно ускоряет разработку. Порог входа в сам LangChain не самый простой (по крайней мере, лично для меня), но в последствии разрабатывать тоже получается быстрее за счёт того, что часть костылей написано за вас сообществом LangChain.
Какие прокси используете для доступа к ИИ Gemini/OpenAI которые закрыты из РФ с их стороны? Я использую OpenRouter, но его тоже приходится пополнять только с помощью друзей-держателей карт зарубежных банков. В комментариях к этому посту советовали ещё и другие сервисы, но я даже не успел их все попробовать.
Решил вернуть бота в канал
Раньше у меня в канале был бот, который генерировал шутёхи в комментариях по теме поста, но работал он только с emoji или текстом.
Теперь он вернулся и реагирует ещё и на стикеры!
Давно хотел научить бота распознавать стикеры и реагировать на них, но у гигачата не было API для работы с изображениями. Недавно эта возможность появилась, поэтому бот снова в строю))
Отправляем в комментарии любой стикер и смотрим, что ответит на это бот. По хорошему, коммент от бота должен генерироваться по теме поста, но над этим я ещё поработаю))
Ну и да, анимированные стикеры он пока не распознаёт)
Самая большая статья затрат любого бизнеса — это сотрудники. А самая сложная задача собственника — нанимать людей.
Благо сегодня можно нанимать намного меньше кожаных сотрудников и делегировать 90% AI.
IBM уже заменила почти 8000 сотрудников ИИ-сервисами. А «Яндекс» за счёт генеративных технологий увеличил выручку на 37% и пробил 1 трлн рублей. По прогнозам McKinsey, к 2030 году ИИ добавит мировой экономике 13-20 трлн долларов.
То есть вопроса, нужно ли внедрять ИИ, не стоит. Нейросети уже экономят 5-10 человекочасов на текучке вроде ресёрча, анализа, подготовки документов. Вопрос в другом: как настроить команду ИИ-ассистентов под свои задачи.
Как раз для этого у Академии Эдюсон есть курс «Нейросети и нейросотрудники для бизнеса».
За пару месяцев без всяких дедлайнов вы: - освоите ChatGPT, GigaChat, DeepSeek, Grok 3 и другие ИИ-инструменты; - научитесь делать видео-аватары, воронки, сайты, веб-приложения и чат-боты; - сможете настраивать ИИ для других или зарабатывать на консалтинге.
Короче, если хотите себе сотрудников, которым зарплату не плати, дай только поработать 24/7, вам это надо.
Доступ к курсу и обновлениям останется навсегда.
По промокоду ПИСАРЕВСКИЙ идёт скидка 55% и второй курс в подарок — оставляйте заявку здесь.
И приятный бонус: Академия лицензирована, поэтому вы сможете вернуть 13% стоимости обучения через налоговый вычет.
Реклама. ООО "ЭДЮСОН". ИНН 7729779476. erid: 2W5zFGNMt9w
Вот и до меня добрался Ai
Когда начался бум ИИ-IDE и все начали пробовать Cursor, Windsurf и прочие Trae, к нам тоже пришло обновление — нам на рабочих компах все это превентивно заблочили. Оно и так не работало из-за санкций по географическому признаку, но для надежности наши поставили и второй забор. Сливать исходники за рубеж — плохая идея.
Тогда у меня не было каких-то интересных сайд-проектов, на которых можно почувствовать всю мощь ИИ. Я попробовал бесплатные версии Cursor и Trae на верстке лендоса и CMS Strapi, но оказалось, что все они натренированы на старых версиях библиотек и выдают не такой уж и валидный код. Думал даже даунгреднуться на старые версии, лишь бы ускорить разработку, но в итоге разобрался сам. С версткой было еще хуже, я верстаю быстрее, чем переделываю за ИИ. Тот же Trae хорошо накидывает выдуманные интерфейсы, но если есть макеты, то проще сразу делать самому.
В общем, я на несколько месяцев забил на AI-ассистентов и лишь поглядывал за новостями.
🌈 Но тут внезапно и к нам в деревню пришла ИИ-весна. Ребята развернули во внутреннем контуре DeepSeek и Qwen, написали плагины для VS Code и WebStorm, разрешили наконец-то этим пользоваться. И хотя до сих пор чувствуется отставание — это все-таки не Cursor с платной подпиской, но всякую мелочь реально получается отдавать помощнику: — сгенерируй функцию преобразования даты из 01.05.2022 в 1 мая 2022 — вынеси повторяющийся код в отдельную функцию — напиши регулярное выражение для снилс — объясни что делает этот код
Параллельно с инструментами для разработчиков, они внедрили ИИ в систему контроля версий, и теперь кроме ревью людей можно подключить и ИИ-ревьюера, который без стеснения накидает целую панамку комментов.
А как с этим обстоят дела в других компаниях?
✅ Друг из Сбера говорит, что уже во всю используют ГигаЧат. У них есть все интеграции с популярными IDE и даже своя собственная. Есть и нейро-ревью, которое пока что создает больше неудобств, чем пользы, поэтому у большинства команд находится в отключенном состоянии.
✅ Про Яндекс слышал, что сотрудникам не запрещается использовать зарубежные нейросетки, и там кто во что горазд — кто подключает Cursor, кто RooCode, кто просто из ChatGPT куски кода вставляет. Говорят и нейро-ревью, кто-то по личной инициативе затащил.
Мне вот интересно, если в компании разрешают использовать зарубежные модельки и IDE типа Cursor, то как они защищают данные?
❓ А вы используете ИИ на работе и в жизни? Есть какая-то польза или поигрались и забили?
UPD: обожаю такие посты за ваши комментарии — вот где кладезь пользы!
#cursor #llm #chatgpt
Сбер выкатил опенсорсный GigaChat, да еще какой! Надо всё брать, пробовать. Заявляют, что это лучшая альтернатива Qwen и DeepSeek, которые нам привычно развертывать в on-premise проектах. Будем посмотреть.
Вообще спасибо (без шуток) за опенсорс. Реально спасибо!
🔷 GigaChat Ultra Preview Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на своих данных ➡ GitHub | HuggingFace |GitVerse
GigaAM-v3 5 моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков ➡ GitHub | HuggingFace | GitVerse
🔷 GigaChat Lightning Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам ➡ GitHub | HuggingFace |GitVerse
🔷 Kandinsky 5.0 Создание фото и видео по тексту. Внутри: • Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст • Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями • Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ) ➡️ GitHub | GitVerse | Hugging Face | Технический репорт
🔷 K-VAE 1.0 Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов ➡️ GitHub|Hugging Face