Саша Капустин про продукт, управление людьми и не только.
@productanddot·Фаундер
AI-саммари
Провёл эксперимент с копайлотами в командах — рефакторинг ускорился на 10%, продуктовые задачи замедлились на столько же. Не верит в хайп «AI заменит джунов», называя это экономическим циклом, — но сам собрал мультиагентного бота для оценки рынков за 4 часа, и теперь задаётся вопросом: откуда синиоры возьмутся, если джуны станут просто интерфейсом для ИИ? Ловит кандидатов с чужими кейсами на собесах по бегающим глазам и тексту в отражении зрачков — и просит рассказать то, чего нейронка не знает. ChatGPT использует точечно — для структурирования дискавери при выборе товаров, когда поисковики топят в рекламных подборках; DeepSeek поставил на телефон после хайпа. Фиксирует: крупные компании уже открывают бюджетные комитеты на AI-ресурсы — «ИИ на каждый чих» оказался дорог.
Уже давно пытаюсь написать пост про новые ИИшки, как они хороши и как вообще меняется рынок. Но что-то не идет. Может просто я сам так и не нашел никакого для себя применения, не вижу прорыва в каких-то сферах благодаря ИИ, кроме экономии на операционке? Не знаю и пойду подумаю, а вы мне расскажите как ИИ вам помогает. Мне вот пока только постоянно достается ловить приколы на собесах, когда кейс написан не автором :)))
Но… я уже пару дней наблюдаю как DeepSeek ставит в не очень удобное положение американский рынок просто одним фактом своего появления. Так что случилось? Дизрапт! Китайцы, оказывается, могут в ИИ, и очень не дурно, выпустив аналог ChatGPT почти во всем (модель работает с меньшим числом параметров, что не влияет, внезапно, на качество ответов, тк у них +- одинаковые результаты на тестах), но потребляет в 3 раза меньше вычислительной мощности для тех же задач, да и на создание потратили их сильно меньше, как говорят братья китайцы. Во что, кстати, я не очень верю, ну да, стартап, ну точно 😂
Добавил: я тут поконкретнее про DeepSeek-V3 нашел. Они использовали H800, урезанный для Китая экспортный вариант H100, и они сами пишут, что для полного обучения потребовалось 2.788M H800 GPU-часов, что соответствует $5.5M при цене аренды H800 в $2 за час. При это LLAMA 3.1 ну примерно за 60м$ обучалась, а OpenAI еще дороже. Короче, и правда хаялва.
Сам DeepSeek монетизируется за счет крупных компаний в Китае, которые им активно пользуются (xiaomi и ко), и вам будет стоить бесплатно. Я вот поставил на телефон и радуюсь.
Из минусов (а я попросил нейронку написать их за меня): - меньше языков (ну и ладно) - меньше творчества в ответах (за что спасибо) - высокая цензурированность ответов, тк модель училась на локальных данных, которые ей подготовили (переживем)
Так вот, представляете, как прикольно вышло: все были убеждены, что для работы хорошей языковой модели нужны заоблачные мощности, но вышла та, которая работает на тостере, и лидер, производящий железки для всего этого «прогресса» упал на 600 млрд долларов 😂 понятно, что отрастут, но как конкуренция делает свою работу, а?)
В сухом остатке… … мы имеем отличный пример запуска: - новое утп (сильно дешевле в эксплуатации и обучении) - понятный фокус (пока не умеет в картинки но запланировано на 25 год) - фокус на задачи локальных компаний (потому монетизация физиков не нужна) - планы по интеграции в WeChat и телегу (представьте аудиторию сразу?…)
Ну и фановое падение рынков :) хотя может это просто совпадение! Хотя лично я кайфую, что китайцы показали, что необходимости в толстенном железе, как минимум для большинства задач, ну… нет, и модельку можно научить по стоимоти в 10 раз ниже, чем это у конкурентов.
Сегодня зум мне сделал предложение века. Я даже растерялся. Скрин с ноута. Без смысла, просто вечер пятницы