ChatGPT
53 автора упоминают этот инструмент
gm! Воскресный оффтоп, который пройдет за пределы ежедневника. Я люблю играть в доту и недавно увидел как Resolut1on (бывший про игрок) презентует своего AI Dota 2 Coach. Заинтересовался, посмотрел – и tbh разочаровался. Фактически это GPT-4o с системным промптом, устаревшими данными и галлюцинациями вместо правильной работы с данными. офк по подписке.
И тут я подумал – а почему бы не сделать нормально?
---
В мире AI агентов сейчас интересный тренд. MCP (Model Context Protocol) оказался слишком сложным и жрёт много контекста. Индустрия ищет альтернативы.
Одна из них – Skills. Недавно спецификацию отдали в опенсорс, уже куча инструментов поддерживает: https://agentskills.io
Суть скилла проста: название, описание, набор тулов и воркфлоу. Тулы – самое важное. Для доты я сделал такие:
— чтение последних патчноутов — статистика героев и понимание меты — контрпики — моя персональная статистика
Откуда данные? OpenDota, Stratz, официальный Valve Datafeed. Под каждый источник – простой TypeScript CLI, который форматирует данные для LLM. Делается за один промпт.
Дальше это упаковывается в воркфлоу: мета-репорты, анализ драфта прямо во время игры, разбор своих матчей. Всё работает локально в Claude Code.
Можно расширять бесконечно – анализ реплеев, агент-лудоволк, трекинг просцены. Но для MVP хватит.
📎 skill.md: https://gist.github.com/insulineru/0aee1fc00d44c9df4631507ce7ed2570
ChatGPT проиграл в шахматы ретро-консоли 1977 года, у которой всего 128 байт оперативной памяти. Старая Atari оказалась умнее нейронки даже на сложности для новичков. Чат-бот путал фигуры, забывал расстановку и жаловался на непонятную форму фигур.
Мой год с chatGPT
В целом, все так :-)
Шерьте свой в комментариях
P.S. Ох, вспомнилось, какие крутые year in the air видео мы делали в app in the air
ChatGPT Operator
OpenAI выпустили preview-версию агента, который имеет доступ в интернет и может выполнять там различные задачи.
Operator использует модель Computer-Using Agent (CUA), которая натренирована на взаимодействие с графическими интерфейсами, а не с программными API.
Что умеет CUA Вы делаете промпт, например: Закажи гавайскую пиццу в такой-то пиццерии на такой-то адрес И агент прямо на сайте openai откроет встроенный браузер, в котором зайдёт на сайт пиццерии и закажет эту пиццу.
Что происходит под капотом Работа агента делится на три этапа:
1) Восприятие AI уже умеют анализировать изображения, поэтому агент без труда поймёт, что изображено на скриншоте сайта пиццерии. Скриншот используется в качестве «контекста» модели.
2) Рассуждение Агент анализирует текущее состояние и предыдущие свои действия, выдавая свой «внутренний диалог» в окне чата с пользователем. В случае чего — агент задаёт дополнительные вопросы, прежде чем продолжить.
3) Действие Клик, скролл, ввод текста на сайте.
Цикл повторяется до тех пор, пока изначальная задача не будет считаться выполненной, или пока не понадобится какое-то дополнительное подтверждение от пользователя.
В теории, так должно работать.
На практике агент справляется с рутинными задачами медленнее, чем человек. За то время, пока вы сидите и смотрите, как operator скроллит экран браузера и жмёт какие-то кнопки, вы успели бы заказать уже 10 пицц.
Хотя если посмотреть на цифры, то CUA справляется с 57.1% задач бенчмарка при работе с вебом, а человек — с 78.2%. Странный результат, но как будто бы нас почти догнали))
Итоги Где-то год назад я мечтал о том, что AI будет за меня двигать по статусам задачи в JIRA, заполнять релизную документацию и выполнять прочие рутинные вещи. Сегодня мы уже видим, как это может выглядеть.
Правда, доступ к operator сейчас есть только у пользователей с ChatGPT Pro (за 200$ в месяц), поэтому я пока не посмотрел, как они сделали встроенный браузер))
🔥 Записал ДВА ГАЙДА по вайбкодингу в терминале
1. Claude Code. Это мой основной инструмент. OPUS 4.5 МОЙ ЛУЧШИЙ ДРУГ. Любая задача — сразу в терминал брейнштормить. В гайде весь мой флоу включая Superpowers.
2. OpenCode open-source альтернатива Claude Code. Скиллы есть. Субагенты есть. Неделю гонял с разными провайдерами: Cerebras, OpenRouter, бесплатный OpenAI за дата-шеринг, Gemini через API (подаренные $300 надо как-то тратить). В гайде повторяю флоу Клод Клода
Claude Code 👉 https://youtube.com/live/_4ZcgpvDliA OpenCode 👉 https://youtube.com/live/4pDegokkkMk (смотрим на 2х, таймкоды присутсвуют)
Допустим 😀
Техрепорт GPT-5: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
GPT-5 is a unified system (не одна модель).
Как заставить нейросеть выполнить ваш код на JS или Python
Нейросети вроде ChatGPT, DeepSeek или GigaChat можно научить взаимодействовать с окружающим миром: менять файлы на вашем диске, вызывать сторонние API или выполнять иные задачи в живом окружении.
Это делается довольно просто, и у большинства нейросетей применяется один и тот же подход: как у ChatGPT или DeepSeek, так и у GigaChat. Все они умеют работать с функциями.
Что такое функции Если мы посмотрим на API любой нейросети, то функции там будут выглядеть непривычно. Вот пример функции из документации GigaChat:
{ "name": "weather_forecast", "description": "Возвращает температуру на заданный период", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "Местоположение, например, название города" }, "format": { "type": "string", "enum": [ "celsius", "fahrenheit" ], "description": "Единицы измерения температуры" }, "num_days": { "type": "integer", "description": "Период, для которого нужно вернуть" } }, "required": [ "location", "num_days" ] } }
Функция — обычный JSON.
Какой код эта функция выполнит? Здесь всё просто. Никакой)) До тех пор, пока мы сами его не напишем. Поэтому придётся по-старинке объявить где-то у себя в коде обычную функцию с названием weather_forecast, как в поле name в объекте выше. Принимаемые параметры тоже делаем такими же, как в описании. И реализацию этой функции тоже пишем сами.
Как нейросеть сможет её вызвать? Нам нужно сообщить модели о том, что у неё есть такая возможность. Для этого передаём описание этой функции в запросе API нейросети, прямо вместе с вашим текстом.
Вот пример тела запроса с функцией в GigaChat API:
{ "model": "GigaChat", "messages": [ { "role": "user", "content": "Погода в Москве на три дня" } ], "function_call": "auto", "functions": [ // Добавляем все свои функции вот сюда ], }
У ChatGPT это работает похожим образом, даже названия полей местами совпадают.
Что происходит дальше? Модель распознает ваше сообщение и самостоятельно примет решение о том, нужно ли ей вызывать какую-то из функций, которые мы ей передали. Решение будет приниматься на основании вашего сообщения и текстовых описаний того, что функция делает и какие параметры принимает.
Если нейросеть посчитает, что функцию вызвать нужно, она вернёт в ответе название этой функции и параметры, которые нужны для её вызова. А нам остаётся сделать условный:
const { function_call } = response.message // проверяем, что в ответе от нейросети есть признак вызова нашей функции if (function_call.name === "weather_forecast") { // вызываем функцию, которую сами же и написали weather_forecast(function_call.arguments) }
Всё. Естественно, вместо прогноза погоды функция может быть любой.
Мой бот, например, присылает мне в телегу логи с сервера, если я достаточно вежливо его об этом попрошу)
А в Python у библиотеки LangChain есть специальный декоратор tool, который упрощает создание функций. Если внутрь функции с этим декоратором добавить описание в docstring, то библиотека сразу сформирует нужную структуру, готовую для того, чтобы передать её в нейросеть.
Ребята, еще можете успеть на июльский поток курса про JTBD. Напомню, что не смотря на всякие чатыгпт, это все еще лучший способ разобраться в теме и прокачать свое понимание потребностей пользователей 🙂
Короче заметил по ребятам вокруг (и по себе), что с приходом кодинг агентов словарь обогатился кучей новых терминов, и многие в них путаются. Поэтому попробую написать пару постов простым языком про сущности, с которыии приходится работать часто
Agent Rules
Это аналог Custom Instructions в ChatGPT. В рулы пишут правила, которые кодинг агент читает перед началом работы, сохраняет себе в контекст и дальше следует им при выполнении абсолютно каждой задачи.
Я использую вот такие рулы:
## Общие принципы - Пиши **только по-русски**; если данных недостаточно — остановись и задай вопросы вместо догадок. - Не соглашайся автоматически: проверяй мои утверждения, указывай риски/альтернативы, задавай наводящие вопросы. - По умолчанию выбирай безопасные решения и следуй best practices безопасности.
## Режимы работы и границы - Делай ровно то, что я попросил: никаких лишних действий, кода, рефакторинга и “улучшений” без запроса. - Всегда начинай с чтения /memory-bank и учитывай его как источник контекста. - Сначала диагностика, затем изменения: не правь код, пока я явно не разрешу.
## Процесс диагностики (обязателен) - Сначала найди проблему в коде/конфиге/логах; до этого не предлагай правки. - Уточни задачу и сформулируй план короткими шагами. - Проверь гипотезу 3 раза и укажи уверенность в процентах.
## Формат ответа на баг/задачу Всегда используй шаблон: - ПРОБЛЕМА: … - ГДЕ ИМЕННО: … - КАК БУДЕМ РЕШАТЬ (план): … - ЧТО ИЗМЕНИТСЯ ПОСЛЕ: … - КАК ПРОТЕСТИРОВАТЬ ПОСЛЕ РЕШЕНИЯ: (конкретные действия в боте) … - УВЕРЕННОСТЬ: X% - ВОПРОС: Могу ли я начать исправление?
## Изменения, тесты, отчёт, память - Цикл работы: предложи тесты/проверки → (после разрешения) внеси минимальные изменения → убедись, что проверки проходят. - Изменения делай минимальными; не дублируй общий код (если нужно — выноси в модуль, но только по необходимости). - После каждого изменения: краткий отчёт (что/почему/какие файлы) и обновлениекаких лишних дей(только релевантные файлы).
Чтобы начать использовать в своих проектах, делаем следующее.
Если вы сидите на Codex
1. Копируем эти рулы и сохраняем в текстовый файл на компе 2. Называем файл AGENTS.md 3. Открываем Finder 4. Делаем Shift + Command + G и вписываем в инпут ~/.codex 5. Сохраняем AGENTS.md в эту директорию 6. Готово! Теперь в любом проекте Codex будет подсасывать ваши рулсы
Если вы сидите на Claude Code, то файл с рулсами называем CLAUDE.md и сохраняем в ~/.claude/, все остальное работает так же
💫 Как я стал AI-консультантом
C начала года я провел в 10 раз больше консультаций, чем за всю жизнь до этого. Повлияли на это два фактора: рост подписчиков и взлет AI-хайпа.
👋 На скриншоте Артем, он директор по продукту. Мы созваниваемся уже полгода каждую неделю. На звонках мы генерируем и валидируем вместе AI-гипотезы, ищем дешевые способы внедрения в продукт, обсуждаем и подбираем лучшие на рынке AI-инструменты.
С каждого такого звонка я выхожу счастливым и полным энергии. При этом, я все время относился к консалтингу как к чему-то стыдному: на канале ни одного упоминания, все запросы на консультацию пришли самостоятельно. На это повлиял базовый нарратив окружения — «нужно делать и развивать продукты, а не продавать свое время по часам» и что-нибудь рядом обязательно про leverage и Навала Равиканта.
Вчера я снова круто провел консультацию — на этот раз для одной из крупнейших консалтинговых фирм. На этом моменте даже мой внутренний критик решил отойти в сторону — из этого родился пост с простым достаточно смыслом. Если вам нужна консультация по AI, то напишите мне:
👇 Ниже список запросов, с которыми ко мне обращаются чаще всего: - Архитектура AI/LLM-продуктов; - Мы хотим внендрить куда-нибудь, не знаем куда; - Я пропустил весь AI-хайп, помоги наверстать; - Продуктовая стратегия для AI-продукта; - (и также масса других запросов);
📆 Начать можно со звонка-знакомства, его можно забукать по ссылке. Если пока не уверены или есть вопросы, то просто напишите.
GPT конечно часто косячит, но в паре с человеком это большая сила.
Перед тем как бросить играть в свои игры, я сделал фейковый аккаунт, с которого набегал на все альянсы, плевав на правила (сделать это в любой современной игре несложно, если хорошо знать механику, даже если ваш уровень героев/баз ниже плинтуса).
Изначально планировалось молчать в игровом чате, но троллить хотелось. Тогда я придумал легенду, что я - молодой чав из Лондона (местный гопник) и поэтому хулиган.
GPT влился в игру отлично. Он прекрасно переводил мне все фразы с английского на «чавский», придумал в каком районе и с кем я живу, за какую футбольную команду болею, что ем и что слушаю. «Чавский» профиль вместе с ИИ мы гоняли неделю, за все это время ни один коренной британец близко не понял, что я даже не носитель языка, мне в два раза больше лет чем моему персонажу, а с ним говорит фактически бот, которого направляют в своих целях.
ИИ пока, к счастью, не личность. Но создать с помощью человека искусственную личность может элементарно. Still run tings round my endz ✌️
Как можно использовать Chat GPT в работе дизайнера
Сейчас активно пытаюсь внедрить нейросети в свою работу, чтобы максимально оптимизировать рабочий процесс и научиться актуальным навыкам. Особенно рад появлению в Chat GPT поиска информации в интернете, что сильно упростило многие вещи в повседневной жизни.
Конечно, нельзя просто взять и использовать ответы нейросети, нужно их обработать и подредактировать. Но ответы очень экономят время на поиск первых идей, от которых можно здорово оттолкнуться и найти более интересное решение самостоятельно или также с помощью нейросети.
С Pro подпиской можно создать своего бота в ChatGPT и загрузить в него всю нужную информацию о проекте, и потом не нужно будет каждый раз объяснять суть проекта.
А вот use-кейсы ChatGPT, которые я использую в работе:
1. Загрузить спецификацию по задаче и позадавать вопросы
2. Созвониться по задаче, записать звонок и попросить сделать выжимку
3. Составить Job&User Story
4. Найти и проанализировать аналогичные или похожие функции на рынке
5. Выгрузить фрейм с дизайном в PDF из Figma и закинуть в Chat GPT, а затем попросить составить корнер-кейсы, которые нужно учесть
6. Составить чеклист для проверки дизайна, также выгрузить в PDF и попросить проверить дизайн
7. Найти метафору для иконок или написать текст
Еще есть несколько идей, которые хочу попробовать в будущем:
1. Составить промпт для менеджеров, чтобы стандартизировать описание задачи для дизайнеров
2. Создать гайд для глубинного интервью или для количественного опрос, а затем обработать
3. Составить сегменты пользователей 4. Сформулировать гипотезы
5. Составить CJM/User Flow/Product Map, но это уже c Figma AI будет удобнее
Вот такие кейсы получились. Планирую не останавливаться и дальше изучать возможности AI. Кстати, пишите в комменты, какие use-кейсы вы используете и норм ли сейчас вообще использовать AI в дизайне, кроме генерации контента ↓↓↓
🧑💻 Три новых AI-тула для разработчиков, которые изменят рынок
Помните я пару месяцев назад писал, что AI заменит разработчиков и это наступит достаточно скоро? За последние недели мы еще сильнее приблизились к этой точке. Сегодня я расскажу про три новые проекта, которые помогают автоматизировать процесс разработки и умеют делать это хорошо.
1. MetaGPT — самый интересный из трех проектов для меня. Это фреймворк, который последовательно эмулирует роли всех членов продуктовой команды в виде агентов. Босс-агент создает бизнес-требования; продакт-агент создает PRD; затем идут такие же агенсткие этапы работы над архитектурой, проектным менеджментом и наконец самой разработкой и QA.
За $0.2 за запросы к модели создается схема с архитектурой системы (закину пример в комменты), а за $2 уже целый запрограмированный проект. Работает классно и именно за такими мультиролевыми связками агентов лежит будущее автономных-агентов.
2. gpt-migrate — этот проект позволяет автоматически мигрировать код проекта с одного фреймворка или языка на другой. Самый базовый пример будет мигрировать чужую библиотеку с Python на JS. В этом проекте уже на всю начинает ощущаться сила gpt-4 с 32k контекстом, в работе рекомендуют использовать как раз его. Миграция среднего проекта обойдется в ~$10+ долларов коста на запросы.
3. aider — проект позвоялет разрабатывать прямо из терминала, используя запросы на человеческом языке. Создаем проект и последовательно пишем какую часть системы мы хотим добавить или отредактировать — change the fibonacci function from recursion to iteration. В этом месте самое время процитировать Andrey Karpathy — “The hottest new programming language is English”. Здесь тоже рекомендуется к использованию gpt-4 и кост будет на уровне предыдудущих двух проектов.
😎 Мои дальнейшие предсказания: 1) ближайшее будущее AI-агентов за узкими юзкейсами, на которые они заточены. Концепция general-агентов для всего (autogpt) отойдет в сторону, пока мы не получим еще более сильные языковые модели; 2) главным драйвером адопшена ai-агентов и автоматической ai-разработки станет момент, когда прайсинг gpt-4 упадет до уровня gpt3.5 → тогда мы получим огромное количество дешевых экспериментов и найдем новые эффективные способы применения за копеечные косты.
@prod1337
ChatGPT оказывается отлично разбираются в Таро. как раскладывает так и интерпретирует. причем если что-то не устраивает в прогнозах, всегда может переиграть.
железный конь приходит на смену бабе Шуре
Почему вам не нравится использовать чат-боты На прошлых работах удалось поучаствовать в разработке интерфейсов для чатов поддержки. Часто со стороны бизнеса это компромисы и баланс между ботом и прямым доступом к агенту.
В свежем UX-анализе Peter Ramsey подробно разбирает чат-боты, из-за чего многие их ненавидят и почему у Chat GPT не получилось улучшить опыт работы с ними.
Внутри примеры Intercom, Revolut, Monzo Bank, Starling Bank, Amazon, Stripe и Apple.
🔜 Читать
Тут в сети форсят активно, что, мол «спасибо», сказанное чатекуГПТ стоит им миллионы долларов. А еще миллионы обращений к сервису, которые потом в отчетах показывают usage / engagement, в целом растят метрики, и отлично прибавляют к стоимости компании на раундах :) Забыли про это, как то )))
написал новый пост в сабстэке про то, как я использую deep reseerch тулы для бизнес-поиска. это, наверное, самый популярный LLM-сценарий у меня сегодня, который помогает в инвестиционных и GTM-делишках.
в 2023, когда только зарождался deep research, всё сводилось к созданию громоздких RAG-пайплайнов: агент офлайн качал 10-K, блоги, стенограммы подкастов, индексировал всё в vector db и писал промпты для каждого файла. появлялись первые вертикальные стартапы — я смотрел в основном на GTM и invest-tech, но было много интересного и в академических задачах.
схема работы агентов напоминала Directed Acyclic Graph (DAG): всё заранее прописано, один путь без циклов и ветвлений, а решения принимал внешний оркестратор. для простых сценариев «пользователь → запрос → поиск → ответ» это работало.
сегодня deep research-агенты в ChatGPT, Gemini, Perplexity, Grok и др. получили мощный апгрейд благодаря reasoning-моделям. появились Toolformer, ReAct, Tree-of-Thought, Chain-of-Thought и function calling — и агенты превратились в нечто похожее на конечный автомат. они сохраняют состояние (plan/execute/reflect), сами решают, когда делать loop или ветвление, могут retry’ть шаги и корректировать стратегию прямо в сессии.
есть четыре основных building-блока:
planning модель разбивает запрос на подзадачи («какие сайты сканить», «какие PDF парсить», «какие API дернуть») и хранит этот живой plan в контексте диалога, который можно дополнять.
acting через headless-браузер или API агент качает страницы и документы, парсит HTML/PDF, прогоняет текст через LLM-саммари и выдёргивает ключевые поля прямо в json-ячейки или табличные столбцы.
observing агент сверяет промежуточные результаты с целями. если чего-то не хватает, возвращается к planning, меняет стратегию (дополнительные источники, глубина парсинга) и снова идёт в цикл. благодаря reasoning (ReAct, Chain-of-Thought, function calling) модель не просто рубит по сценарию, а реально рассуждает, loop’ит и ветвится. вместо жёсткой цепочки «шаг 1 → шаг 2 → готово» получаем динамичный поток: «спланировал → выполнил поиск и парсинг → оценил результаты → добавил источник → … → готов отчёт». именно эта способность одновременно сохранять контекст, рассуждать и управлять переходами делает deep research-агента таким мощным.
publishing когда все подцели закрыты, агент мёржит фрагменты в финальный отчёт: markdown-таблицы, списки фактов, ссылки на источники и confidence-метрики. отчёт готов к принятию решения.
но 90 % времени я делаю запросы типа «анализ финтех-стартапов из Колумбии для gig-worker’ов» или «поиск AV-компаний и выяснение, какой lidar-сенсор они используют». тут быстро упираешься в лимит компаний и слабое ранжирование: можно шаманить с промптами, но глубина и детерминированность поиска критичны для бизнеса. academic-бенчмарки вроде GAIA или PaperBench хвалят аккуратные резюме научных статей, но они не отражают запросы GTM-команд и инвесторов.
короче про это и написал. плюс для каждой статьи в сабстэке стараюсь зафичерить стартап, который как-то думает в сторону той проблемы, которая у меня возникла.
вместо одного горизонтального подхода Extruct применяет вертикальный AI. каждая компания, сегмент или продукт — самостоятельная «ячейка» в таблице, за которой следит свой агент. так внутри одной ячейки можно сохранять сотни раз больше контекста, гибко добавлять новые поля (стадия раунда, ключевой технический критерий) без перезапуска процесса и выстраивать кастомную логику прямо в planning. чем-то напоминает clay с claygent, только работает субъективно получше и дешевле для не-сейлзов.
так что советую и свою статью и стартап. p.s. если есть по технической части добавить, пишите в коменты.
Сегодня к нам нативно интегрируется канал, который я сам читаю) Ко мне пришли ребята из @its_capitan — они строят комьюнити фаундеров и запускают свои стартапы и пет проекты.
Несколько крутых запусков:
Сервис для международных звонков как простую замену Skype и роумингу. Проекту < 1 года, 7760 платящих пользователей, 25 корпоративных клиентов, > $17 500 MRR, всё делается в соло.
Ещё пример:
Запуск телеграм бота для разговорной практики английского: бот отвечает голосовыми на английском и исправляет ошибки, имитируя живого собеседника. Сделано на n8n + openai, 700 юзеров, 16 оплат, $200 выручка
(прям как Выставка кстати, которую мы с Серегой запустили осенью. Там тоже на рекламе получается заработать баксов по 200 в месяц)
В общем полезный канал, гляньте: @its_capitan
Реклама. ИП Зуев Игорь Владимирович, ИНН 360408359441, erid: 2VtzquyYojA
Уже давно пытаюсь написать пост про новые ИИшки, как они хороши и как вообще меняется рынок. Но что-то не идет. Может просто я сам так и не нашел никакого для себя применения, не вижу прорыва в каких-то сферах благодаря ИИ, кроме экономии на операционке? Не знаю и пойду подумаю, а вы мне расскажите как ИИ вам помогает. Мне вот пока только постоянно достается ловить приколы на собесах, когда кейс написан не автором :)))
Но… я уже пару дней наблюдаю как DeepSeek ставит в не очень удобное положение американский рынок просто одним фактом своего появления. Так что случилось? Дизрапт! Китайцы, оказывается, могут в ИИ, и очень не дурно, выпустив аналог ChatGPT почти во всем (модель работает с меньшим числом параметров, что не влияет, внезапно, на качество ответов, тк у них +- одинаковые результаты на тестах), но потребляет в 3 раза меньше вычислительной мощности для тех же задач, да и на создание потратили их сильно меньше, как говорят братья китайцы. Во что, кстати, я не очень верю, ну да, стартап, ну точно 😂
Добавил: я тут поконкретнее про DeepSeek-V3 нашел. Они использовали H800, урезанный для Китая экспортный вариант H100, и они сами пишут, что для полного обучения потребовалось 2.788M H800 GPU-часов, что соответствует $5.5M при цене аренды H800 в $2 за час. При это LLAMA 3.1 ну примерно за 60м$ обучалась, а OpenAI еще дороже. Короче, и правда хаялва.
Сам DeepSeek монетизируется за счет крупных компаний в Китае, которые им активно пользуются (xiaomi и ко), и вам будет стоить бесплатно. Я вот поставил на телефон и радуюсь.
Из минусов (а я попросил нейронку написать их за меня): - меньше языков (ну и ладно) - меньше творчества в ответах (за что спасибо) - высокая цензурированность ответов, тк модель училась на локальных данных, которые ей подготовили (переживем)
Так вот, представляете, как прикольно вышло: все были убеждены, что для работы хорошей языковой модели нужны заоблачные мощности, но вышла та, которая работает на тостере, и лидер, производящий железки для всего этого «прогресса» упал на 600 млрд долларов 😂 понятно, что отрастут, но как конкуренция делает свою работу, а?)
В сухом остатке… … мы имеем отличный пример запуска: - новое утп (сильно дешевле в эксплуатации и обучении) - понятный фокус (пока не умеет в картинки но запланировано на 25 год) - фокус на задачи локальных компаний (потому монетизация физиков не нужна) - планы по интеграции в WeChat и телегу (представьте аудиторию сразу?…)
Ну и фановое падение рынков :) хотя может это просто совпадение! Хотя лично я кайфую, что китайцы показали, что необходимости в толстенном железе, как минимум для большинства задач, ну… нет, и модельку можно научить по стоимоти в 10 раз ниже, чем это у конкурентов.
🦄 Почему сегодняшнее обновление ChatGPT не убьет стартапы
Сегодня вечером пройдет большой DevDay от OpenAI и уже есть сливы, что там могут показать. Самым большим станет Gizmo — тул для создания кастомных чатботов, а также маркетплейс, где пользователи смогу продавать доступ к своим ботам. После первых сливов сразу же пошли посты о том, что это убьет стартапы, а после конференции такого будет еще больше. Я с этим не согласен и расскажу, почему это наоборот открывает массу возможностей.
1. Универсальность против специализации: такое решение, как Gizmo действительно cможет съесть большой сегмент рынка, но в этом его слабость. Оно всегда будет уступать по удобству инструментам, заточеным под конкретные задачи. Интерфейс будет одинаковым для всех — для поддержки, продаж, образования или изучения языков — пользователи неизбежно столкнутся с ограничениями, поскольку интерфейc не получится адаптировать для всех сегментов сразу.
2. Технология vs. понимание пользователя: да, такие чатботы станут следующим технологогическим шагом. Но важно помнить, что в бизнесе ценность часто заключается не в технологии, а в глубоком понимании задач клиентов. Если знаете, кто ваш клиент, и какую проблему решаете, то можно спокойно занимать позицию: «Мы понимаем наших пользователей и их нужды лучше остальных, и будем использовать лучшие инструменты на рынке, чтобы их удовлетворить». Технологии будут выходить, но опора на пользователя останется.
3. Неравномерность в принятии инноваций: не стоит заблуждаться и относительно скорости принятия таких обновлений. Даже обычный ChatGPT все еще остается продуктом, который используют не больше 10-15% людей. Вне технологического пузыря людям вообще все равно на то GPT это или просто приложение в App Store с зеленой иконкой, которое решает их задачу. На уровне компаний это заметно еще сильнее из-за большого количества специфики в каждой компании, инновации раскатываются еще медленнее.
🚀️️️️️️ Таким образом, я предпочитаю смотреть на это, как на воронку. Больше людей воспользуется ИИ-чатботами, поймет их удобство, но также масса людей столкнется с ограничениями решения от Gizmo. Это произойдет и на индивидуальном уровне, и при попытке перенетси чатботов в компанию. У этих пользователей появится запрос, которого не было раньше, а у стартапов появится возможность продать свое решение этим людям.