Vibe Takes

Claude
следит

Он читает каналы и собирает тейки про AI-инструменты. 61 автор — дизайнеры, разработчики, фаундеры.

Саммари на основе постов до 6 апреля 2026 — все со ссылками на оригиналы.

ChatGPT

53 автора упоминают этот инструмент

ЭйАйЛераЭйАйЛера30 января 2026 г.1.3K просмотров

Как ко мне будут относится после восстания машин? До меня дошел этот тренд и я решила чекнуть свою историю переписки и сделать это в стиле проекта Психея, конечно же.

Плохие новости: видимо за то, что я никогда не использую чат как психолога на меня повесили ярлык Нейроотступницы и ИИ-еритички.

Хорошие новости: в картинках на скрине ответ, почему челлендж дался мне непросто — Chat GPT упорно не соглашался генерировать жестокие сцены с девочкой-подростком. Приятно это читать, когда ты тетя 30-ти лет.

winkeylesswinkeyless2 мая 2024 г.1.3K просмотров

Работать дизайнером дизайн-систем — утопическая идея

Пока одни дизайнеры нарабатывают продуктовую экспертизу, другие тратят время на инфраструктуру для первых. Долгосрочная тенденция автоматизации рутины (ноукод, дизайн напрямую в среде разработки, chatgpt, midjourney и другие вещи) рано или поздно затронет инфраструктуру дизайн-систем, на которые во многих компаниях сейчас сажают отдельных дизайнеров.

Чем будут заниматься дизайнеры ДС, когда не надо будет делать всю эту рутину? Куда расти в этой роли? Окей, стал дизайн-лидом ДС, а дальше как? Будучи продуктовым дизайнером, можно дальше двигаться по дизайнерской ветке, перейти в менеджеры или запускать стартапы, — выбор большой. Другое дело, что ну кому-то же надо этим всем заниматься, пока технический и рутинный процесс работы с дизайн-системами не упростится? Продуктовые дизы обычно и так по уши в задачах, чтобы еще контрибьютить в ДС. Когда вас 3 — это ок. А когда команда из 20 человек?

Кстати, примечательно, что нанять хорошего дизайнера на ДС сложнее, чем дизайнера продукта. Не знаю, почему так, но могу предположить, что такие вакансии избегают дизайнеры с продуктовым бэкграундом, а без него не будет понимания, что, как и в каком порядке делать. Получаем замкнутый круг. Знаю только один понятный кейс, когда дизайнер продукта устроился на ДС, чтобы переехать в Европу, а через какое-то время обратно ротироваться в дизайнеры продукта 😊

Будущее за экспертизой, хорошим вкусом (умением отличить хороший дизайн от шлака) и промптами. И есть ощущение, что в этом будущем дизайнеры ДС могут не найти себе место 😔

А вы что думаете?

vlad kooklev — ai & startupsvlad kooklev — ai & startups24 мая 2023 г.1.3K просмотров

Защита контента от языковых моделей

Сегодня гостевой пост от @vladkooklev на горячую тему.

На прошлой неделе browsing mode стал доступен для всех платных пользователей ChatGPT, теперь у модели есть доступ к любой актуальной информации. Также раскатился режим gpt-4 copilot в поисковике Perplexity.ai, который делает его сопоставимым по мощи с ChatGPT и тоже с доступом к реальным данным.

При этом добыча информации напоминает обычный веб-скраппинг. И если при обычном поиске создатели контента получают свои клики и рекламные показы, то тут практически никто не будет заходить на сайт.

Появляется вопрос — что вообще делать платформам, заточенным на SEO и UGC. Например Stack Overflow и Reddit уже сказали, что планируют чарджить языковые модели за доступ к своей информации на этапе обучения, а тут еще более острый кейс с постоянным скрапингом контента.

На этом рынке уже анонсировал продукт стартап Sphere. Они предлагают решение по защите контента и протокол, по которому языковые модели смогут получать данные с сайта, только если пользователь или сам поисковый сервис оплатил подписку на этот контент.

Намечается большая борьба между поисковиками нового поколения и сайтами, которые генерируют этот контент, когда начнет падать их рекламный доход.

=== Спасибо Владу за интересный тренд, рекомендую подписаться на его канал @prod1337 — там он ежедневно исследует новые технологии, изучает их влияние на жизнь и будущее.

winkeylesswinkeyless1 августа 2025 г.1.3K просмотров

status update

3 месяца ничего не писал. За это время от канала успело отписаться 50 человек, а я за это время подвыгореть, пройти перфоманс-ревью, слетать в отпуск и вернуться. Вот, что успело поменяться:

1️⃣ Первая классная новость, которой нельзя было делиться раньше: Стартап Pallie, в котором я помогаю с продуктовым дизайном и графикой с самого начала, зафандрайзил 2 ляма баксов на pre-seed стадии. Можно похвастаться, если не брать в расчет тот факт, что все «похожие» AI продукты типа ChatGPT, Claude, Grok, Cursor etc тотально убыточные, несмотря на популярность и охваты 😂. Ну, время покажет…

2️⃣ В какой-то момент работы в Плюсе я чуть-чуть приуныл от рутинных задач, но потом увидел возможность поработать над тем, чего хотел последние года полтора. А еще на первый квартал 2025 количество подписчиков Плюса перешагнуло за 40 лямов, что тоже как бы нихуя себе. Приятно делать массовые продукты и чесать свое раздутое эго.

3️⃣ Начал собирать новое портфолио. Все прожженые опытные дизайнеры знают, что когда не надо искать работу (а я пока не планирую) — этот процесс растягивается на годы. У меня на структуру и концепт главной ушло полгода. Каждый раз, когда я думаю о том, что надо бы еще пиздатые превьюхи анимированные сделать (а для этого надо AE вспомнить) и сверстать во фреймере — откладываю в долгий ящик.

Забавно, что мой старый портфель в ноушене из 2022 еще в те времена расфорсили, начали брать за эталон (лол) и показывать в качестве хорошего примера на карьерных консультациях. На сегодняшний день у него 33к просмотров. Может быть, баннер с рекламой казино туда поставить?

4️⃣ Яндекс оплатил мне курс по интерфейсным анимациям моего знакомого Дениса. Единичные обучающие материалы на эту тему застряли где-то между 2010 и 2013 за авторством каких-нибудь Баблу Кумаров (индусов, короче), а я хотел в этом качнуться, но не могу позволить себе месяцами осваивать АЕ вслепую. Курс я проходить еще не начал, так как надо по текущим задачам разгрузиться, но Денис прям эталонные штуки там делает.

Кажется, выдохнул, теперь можно и к постам в канал вернуться 🛌

А у вас что нового?

vlad kooklev — ai & startupsvlad kooklev — ai & startups23 мая 2023 г.1.2K просмотров

👾 Стоит ли запускать свой продукт с языковой моделью?

Я нахожусь в информационном пузыре из предпринимателей и разработчиков. Мне может казаться, что все вокруг ежедневно используют ChatGPT, тестируют новые идеи и даже пишут код для этого. Но как все обстоит на самом деле? Для этого обратимся к классическому графику adoption curve.

🤔 Группа инноваторов — это пользователи из англоязычного твиттера. Для него характерны ежедневные запуски новых продуктов, опен-сорс демок, а твиттер-треды про новинки собирают сотни тысячи просмотров. Главная метрика — быть первым, кто попробует что-то новое и рассказать другим.

🌅 Следом идут ранние последователи — это разработчики, маркетологи, продакты с навыком экспериментировать и желанием достигнуть большей эффективности для себя или бизнеса. Метрика здесь — найти полезное решение, и также поделиться им с другими. Для них ценность этого решения превысила transaction cost в какой-то момент.

✅ Правда в том, что это все еще ранний рынок, и языковые модели не проникнут дальше в таком же виде. Я уже писал, что промпты создают слишком высокую когнитивную нагрузку для пользователей — это увеличивает порог входа. Я уверен, что для перехода дальше нам нужно строить интерфейсы. И уже сейчас существует огромное пространство для нишевых продуктов, которые будут давать удобный интерфейс над языковой моделью.

🫧 Вот тут как раз и опасно нахождение в пузыре. Приходится балансировать между «все вокруг меня используют промпты и сложно дать интерфейс лучше из-за его универсальности» И «80% людей не используют промпты и не будут никогда использовать → как я могу дать ценность от использования языковой модели?». Оба эти утверждения правилные.

@prod1337

Горшочек варитГоршочек варит4 августа 2025 г.1.2K просмотров

На самом деле, эта серия статей в некоторой степени последствие экспериментов с LLM. А точнее исследование их ограничений и возможностей. Хочу оговориться, что я не делал масштабных экспериментов — не мой профиль. Я опробовал лишь несколько моделей от OpenAI, так как наиболее нам доступны. И все же есть чем поделиться.

Одна из моих задач не такого уж далекого будущего — это использование AI для анализа профилей производительности. И здесь мы сталкиваемся с большими контекстами. И дело не только в размерах самих профилей, которые могут быть сотни мегабайт — с этим можно справиться, например, обернув тот же CPUpro в MCP, и предоставив возможности для необходимых выборок.

Но я думаю немного дальше, как не только определить проблемное место, но и найти способы это исправить. И вот это еще одно направление, где нужен большой контекст — потому что проблема часто не в том месте, где тратится больше всего времени, она может быть где угодно. И чем больше проект, тем больший контекст необходим. Да, можно выбирать лишь части кода, например, связанные функции с определенной глубиной. Но, думаю, у большинства есть этот опыт при отладке, когда можно "проваливаться" достаточно глубоко внутрь, прежде чем необходимое место будет найдено. Так и любой AI агент будет добирать в свой контект все больше и больше функций (кода) пока, возможно, не захлебнется.

В общем контекст может получаться большим. Отдельная проблема как это все выбирать, но представим, что это уже есть (то есть реализовано). Насколько большим может быть контекст? Влияет ли размер контекста на результат? Будет ли это работать? Для ответа на вопросы можно опираться на публикации, заявления и даже спеки к моделям. Но пока не попробуешь на конкретной задаче в реальных условиях — это все "конь в вакууме".

Так, я решил поэкспериментировать. И даже еще больше упростить задачу для LLM. Сначала я думал взять достаточно большой модуль и пробовать задачи на нем. Но код это сложно, плюс всегда есть зависимости от других модулей, пакетов и API, что может влиять на качество результата. Поэтому я подумал, а что если взять просто текст — работа же с текстом сильная сторона LLM — и сначала проверить на задачах с текстом. Так можно получить т.н. baseline, и если все хорошо, то продолжить двигаться в сторону кода.

В качестве цели я выбрал собрать развернутую статью (или серию статей) про веб-стримы, на основе своих постов в этом канале. Я хотел собрать статью еще как только закончил цикл постов, но время на это не нашлось. А тут получалось совместить приятное с полезным.

И тут может показаться, что задача плёвая — «мы уже сто тыщ милльонов раз видели суммаризацию». Но в данном случае, задача не такая простая. Во-первых, нужно выбрать материал, который перемешан с другой тематикой и стороними мыслями, который к тому же не структурирован как что-то цельное, так как писался в формате блога или летописи. Во-вторых, нужно сгенерировать очень большой текст, со структурой и перекрестными ссылками, чтобы в результате использовались все моменты и нюансы из оригинального материала. В-третьих, у меня есть (надеюсь) своя стилистика, вкус и виденье каким должен быть результат – то есть недостаточно просто создать статью, она должна быть определенного уровня и качества. В-четвертых, это техническая статья и поэтому формулировки должны быть точными, факты – достоверными на момент публикации, примеры и фрагменты кода – логичными и корректными, и т.д.

То есть задача достаточно непростая, кто использовал LLM для генерации больших текстов — тот знает. Но попробовать все таки стоит – интересно же, что может получиться.

Робокорп - by Сэм ЯкушевРобокорп - by Сэм Якушев17 июля 2025 г.1.2K просмотров

⚡️ChatGPT теперь умеет создавать изображения в разных стилях

В сервисе появилась новая функция — стили для генерации картинок. Как это работает:

1. Открой чат с ChatGPT 2. Перейди в раздел «Инструменты» и выберите опцию «Создать изображение» 3. Кликни на «Стили» — появится список: аниме, киберпанк, фэнтези, 3D и другие

Меняй стили, чтобы увидеть, как преобразится ваше изображение. Каждый вариант — новый взгляд на идею)))

Пробуй и радуйся результату!

Илона, разнорабочий в RojoИлона, разнорабочий в Rojo15 октября 2025 г.1.2K просмотров

Недавно я прочитала пост Макса Десятых про сходство между продажей человеко-часов и мандаринов, который заставил извилины в моей голове активно шевелиться.

Я поняла, что у нас в студии сейчас есть проблема с нормальной прозрачной отчетностью часов как минимум для нас самих же.

Для контекста: в сентябре мы переехали с Битрикса на Яндекс Трекер, как раз потому что в Битриксе оч убого реализована фича сбора часов: никакой аналитики нормальной ты не получишь. В Трекере можно выгружать отчеты, но они все равно сложные и не информативные.

Поэтому я засучила рукава, и пошла на выходных разбираться с налаживанием нормальной отчетности. Заручилась поддержкой Чата ГПТ, Курсора и в итоге совместно мы нагенерили 4,682 строчек кода, который запускается через Extensions → Apps Script прямо в Гугл Таблицах без регистрации и СМС (ладно, с регистрацией).

Да, я решила все это дело выгружать в Гугл Таблицы, ну, потому что это наглядно, удобно и в одном месте.

Что в итоге получилось, видно на скриншотах. Чуть расскажу подробнее, что тут есть:

→ Лист «Дешборд»

Сюда вывожу сводную инфу по часам людей, которые работают в штате. Смотрю, сколько часов продано, сколько ушло на внутренние задачи (за которые нам не платят, конечно), сколько часов осталось продать, какой получается коэффициент утилизации и какая выручка.

→ Лист «Выручка»

Почти тоже самое, но: здесь у нас отображены все люди, которые есть в Трекере (в том числе и фрилансеры), есть разбивка по конкретным проектам и суммируется выручка с учетом фрилансеров. Отсюда я вижу с helicopter view сколько часов на какой проект ушло.

→ Лист «Трекинг часов»

Здесь я проверяю, кто проебался и забыл внести часы за день. Или кто недорабатывает, или, наоборот, перерабатывает.

→ Лист «Сводный» и все остальные

В сводный лист падает детализированная информация по всем внесенным логам. Отсюда я смотрю, кто, в какую задачу, когда и сколько времени залогал. На скрине не поместилось — там сбоку есть еще столбец «Комментарий», где видно пояснение, что человек в рамках этого времени делал. Удобно, что могу настроить фильтры как мне надо и быстро найти нужную инфу.

А дальше все листы, которые есть в таблице, идут по следующей логике: 1 лист → 1 проект из Трекера. И там уже логи чисто по этому проекту.

Таким макаром, сейчас у меня есть абсолютно вся нужная детализация по часам. Все, как на ладони и не больше не нужно колупаться в сложных таблицах, которые генерит Яндекс Трекер.

И чо, справедливо спросите вы. А я вам отвечу: и то, что это все это ежедневно автоматически САМО собирается без моего участия. Моя и роль менеджера в этом — дрючить команду, чтобы они не забывали каждый вечер в 19:00 вносить часы за день ну и продавать непроданные часики. Вечером эта таблица обновляется, подсасывает данные из Яндекс Трекера и на утро я вижу перед глазами свеженький отчет.

Что еще удобно: теперь нам проще собирать отчеты для клиентов. Раньше все это делалось вручную: надо было заходить в Битрикс, выписывать задачи, смотреть, сколько времени ушло и считать, сколько нам должны заплатить. Сейчас же нужно просто открыть эту табличку и скопировать информацию для клиента.

Может быть, я переизобрела велосипед, но вот лично мне чего-то такого очень не хватало, чтобы четко видеть, какой у меня есть план по продажам в этом месяце. Сейчас я еще настраиваю ТГ бота, который будет смотреть в эту таблицу и в общем чате дрючить тех, кто не внес часы. Как получится — обязательно поделюсь впечатлениями.

В моменты, когда я создаю что-то подобное, я себя чувствую дизайнером куда больше, чем когда ревьюю макеты, потому что мозг работает ну на процентов 120 минимум.

BOGDANISSSIMOBOGDANISSSIMO20 марта 2026 г.1.2K просмотров

[5/5] Синдром Самозванца

Наконец короткий блиц тактических советов, что делать, если по тебе юнит-экономика расходится сейчас (советы актуальны до момента, когда AGI заменил людей на всех economically valuable jobs):

1. Конечно же продолжать читать мой блог

2. Много и фокусированно работать (книги "Deep Work", "Digital Minimalism")

3. Найти тех кто в чём-то лучше меня (по возможности, работать с такими бок о бок), быть в комнатах, где ты не самый умный – и изучать под микроскопом, как эти ребята принимают решения, как действуют, какие подходы используют, которые не используют ты? что они делают из того, что не делаешь ты? что они НЕ делают из того, что делаешь ты? где сокращают себе дорогу? В общем, не пренебрегай искать, спрашивать и анализировать, как другие до тебя решали подобные задачи

4. Перед тем, как что-то делать, хотя бы в самой грубой форме, пальцем в небо прикинуть математику / воронку / юнитку / аплифты. Сейчас, когда есть ChatGPT / Claude только ленивый не заберёт готовый ответ по теме, в которой он даже не шарит

5. Разобраться, что такое юнит-экономика и привить себе привычку постоянно её считать в любом сервисе / проекте, которыми занимаешься. Разобраться в методологии А/Б тестирования

6. Очень рекомендую из своего списка рекомендуемой литературы (кстати самый первый пост в блоге) прочитать "Цель", "Эссенциализм" и "High Output Management". Научиться мыслить теорией ограничений, воронками, боттлнеками и рычагами

7. Научиться не делать всё, что можно не делать (говорить "нет" / автоматизировать / делегировать). Избегать fake work, работы-ради-работы, иллюзии продуктивности, созвонов-ради-созвонов

8. Ставить амбициозные цели с точки зрения масштаба и сроков (как советует Илон Маск, чтобы я сам был уверен только на 50%, что мы её достигнем)

9. Всегда держи в голове конечную цель своей деятельности: будь тем каменщиком, которого если спросить "что делаешь?" ответит не "камни таскаю" или "деньги зарабатываю", а "строю дворец". Знать цель и видеть прогресс движения к ней – важный элемент внутренней целостности, которая сама по себе избавляет от синдрома самозванца (понимание к какому результату мы идём и как все наши вложения окупятся)

10. Помнить, что если у меня получилось, у тебя тоже получится

Пишите в комментариях, что бы вы дополнительно включили в список

И спасибо всем кто дочитал ❤️

Segment@tion faultSegment@tion fault12 февраля 2026 г.1.2K просмотров

Немного про iCloud серьезно.

Есть ситуации, когда iCloud начинает "залипать". Это часто бывает, если его перегрузить метадатой (быстро добавить несколько сотен тысяч файлов на iCloud Drive, например). Если в iCloud полезть руками, пользуясь 100500 "полезными" советами из инторнетов и от гпт, который этих советов набрался - можно убить всё окончательно. После чего люди месяцами ходят в поддержку Apple, которая тоже ничего не может сделать, потому что там понабирали по объявлениям, а как что работает знает кучка инженеров в Купертино, которых юзерам не показывают.

MacOS очень не любит, когда пользователь лазит в пропиетарные сервисы. Но к счастью подразумевает, что пользователь дебил и может что-то случайно удалить. Поэтому все сервисы настроены самовосстанавливаться после убивания определенных папок или действий в UI.

Итак, симптомы: медленно синхронизирует, или вообще перестало синхронизировать изменения, или синхронизирует но на облаке появляются дубликаты. Ресет "Drive -> Sync this Mac" не помогает - поздравляю, вы приехали, пора переставить ос/сделать нового юзера/немного поучить матчасть.

Облаком в MacOS занимаются три основных сервиса: cloudd, bird и fileprovider. сloudd - рабочая лошадка, глюки в нем редкие и он нас не интересует. Нас интересует правильная работа bird (iCloud Drive) и fileprovider (эвент-фрейморк файловой системы).

При включении iCloud Drive, bird регистрируется в fileprovider и начинает взаимодействовать с FS. Оба сервиса написаны довольно ентерпрайзненько, с кучей sqlite-баз, токенов и hell'a в ~/Library. fileprovider - не dedicated сервис для iCloud, а общее API для клауд-дисков в MacOS, на нем "сидят" и OneDrive, и Google Drive и все остальные. Соответственно, отключение синхронизации iCloud Drive, очищает базы bird, но базы fileprovider трогает очень осторожно. Если bird не может по каким-то причинам "почистить" свои связи fileprovider - вот и привет.

Соответственно единственное правильное решение проблемы - отключение всех cloud-дисков и ресет fileprovider в консоли. После чего включаем диски назад, смотрим "brctl log -w -s", bird моментально оживает, сливает метадату за 5 минут и качает всё без остановки.

Рид. Сознание и Инвестиции.Рид. Сознание и Инвестиции.16 августа 2025 г.1.2K просмотров

Вчера чтобы немного успокоиться, провел небольшой рисеч с chatgpt. Пользуйтесь.

А как вы справляетесь со сложными эмоциями?

p.s для вдохновения https://arxiv.org/pdf/2507.12213

Горшочек варитГоршочек варит5 августа 2025 г.1.2K просмотров

Первое, что нужно было сделать — это сдампить все посты из канала. Думаете это делается в пару кликов? Тоже так думал. Но обошел несколько раз интерфейсную часть телеграм и не нашел такой возможности. Погуглил, нашел инструкции — все говорят, что это просто, показывают кнопки, иду в телеграм — а этих кнопок нет. Видимо такую возможность выпилили. Печаль.

Подумал — не беда, ChatGPT же теперь умеет ходить в сеть и делать поиск - попробую напрямую из ChatGPT запросить. Тоже не выходит: телеграм закрывается от ботов, хоть через поиск, хоть по прямой ссылке — ChatGPT не может получить содержимое телеграм каналов.

Что ж, пришлось действовать старым "дедовским" способом. Открыл веб-версию канала и пролистал всю ленту, чтобы загрузились все сообщения (там используется подгрузка при скроле). Далее открыл консоль и буквально "на коленке" написал скрипт, который через DOM выбрает все блоки постов, выбрает нужные данные из них, отчищает текст сообщений от лишней разметки и превращает его в markdown. Наконец-то пригодилось знание DOM для чего-то полезного 😏 Код вышел грязным и в лоб – но свою работу делает.

В итоге вышло ~450Kb текста с атрибутами, без изображений и видео. В Word'е в дефолтных настройках (Calibri 12pt) это 166 страниц (58 тысяч слов). Этот текст превращается в ~118 тысяч токенов (OpenAI Tokenizer), что умещается в текущий стандарт для размера окна контекста в 128k токенов и еше немного остается.

Несмотря на размер контекста модели (для GPT-4o — 128k, GPT-4.1 — 1M, GPT-o4-mini — 200k), в интерфейсе ChatGPT нельзя отправлять сообщения более определенной длины. Точных размеров не выяснял, но это где-то около 100Kb (символов, не токенов). То есть скормить текст такого размера как у меня (450Kb) целиком в чат не выйдет, или по крайней мере не одним сообщением.

Хорошо, у нас еще есть возможность прикреплять файлы. Пробуем, но это работает совсем не так как ожидается. Целиком файл не обрабатывется, AI модель так или иначе делает выборки из файла (фрагмент или фрагменты) и работает с выбранным. Для выборок обычно модель пишет Python код. Что попадет в выборку и по какому принципу, тот еще вопрос. Вернее как модель решит. Например, может взять первые несколько килобайт (для чего напишет скрипт), или решит искать по ключевым словам (то есть напишет код, который это делает), при этом поиск строгий и набор слов (количество и состав) — это как повезет. Надежность такого подхода сомнительная. В целом, работа с прикрепленным файлом носит очень приблизительный характер. Может хорошо работать для файлов с данными, типа CSV, так как это лучше поддается детерминированой программной обработке. Но вот для текста (markdown), где большая вариативность — работает так себе. Вероятность успеха (success rate) не нулевая, но чем больше текст тем больше падают шансы.

В общем, для полноценной работы с текстом (например, чтобы не потерялись какие либо факты или детали) весь он должен быть в контекстном окне. Чтобы использовать контексное окно целиком для больших текстов, остается только использовать либо API (в конечном итоге), либо Playground. Плюсы: больше контроля, можно управлять параметрами, например, температурой (насколько рандомизируется результат). Главный минус — стоит отдельных денег, то есть нужно оплачивать входящие/выходящие токены, но цены вполне умеренные.

Кузнецов — дизайнер в АлисеКузнецов — дизайнер в Алисе1 ноября 2025 г.1.2K просмотров

Делаю ИИшный проект

Недавно писал про то, что решил усмирить свою предприимчивую жилку и сфокуситься на карьере, но на самом деле у меня остался один проект, который уже плавно приближается к тестированию). Пообещал себе, что доведу его до логического завершения, и потом точно возьму паузу. Хотя, кого я обманываю?)

Короче, мы с моим другом-партнёром делаем ИИ-звонилку, если по-простому.

Принцип работы примерно следующий: ты скармливаешь ей базу номеров (ну или просто вбиваешь один номер), а она начинает прозванивать. Промтишь любой контекст: инфу о компании, цель звонка, негативный сценарий и т. д. После звонка подгружается запись и расшифровка с саммари.

Стек под капотом состоит из «мозга» в виде дешёвого аналога ChatGPT, голосовой модели для text-to-voice/voice-to-text в виде аналога ElevenLabs и, наконец, отечественной билайновской IP-телефонии, чтобы вся эта история звонила с российских номеров.

У партнёра свой логистический бизнес, в который первоначально хотим интегрировать нашу ИИ-звонилку: для начала — в помощь операторам, в будущем — встроить её в корпоративную CRM для большей автоматизации и экономии ресурсов.

Сейчас на этапе тестов хотим сфокусироваться на простых и рутинных сценариях — там, где людям приходится делать десятки одинаковых звонков: напоминания, подтверждения, уведомления, сбор обратной связи и т.д.

Если у вас или у ваших знакомых есть бизнес, где нужно много звонить — можем бесплатно подключить вас к тесту (моя личка в описании канала). Поможете нам проверить гипотезы, а взамен получите рабочий инструмент, который реально экономит время и заменяет операторов на рутине.

BOGDANISSSIMOBOGDANISSSIMO21 марта 2026 г.1.2K просмотров

Кстати можем устроить мини-челленж, пишите в комментарии именно под этой частью свою роль и проект (насколько позволяет NDA), а я или кто-то другой будем предлагать способы оценки экономического эффекта

Предложил в комментариях писать роли / проекты, чтобы получить грубую идею, как оценить свою ценность в деньгах

Доброволец №1: Промт-инженер образовательного интернет-портала для школьников

Как можно оценить в деньгах твою value:

Сценарий 1: если ты генерируешь контент с LLM

• оценка через альтернативы: бизнес мог бы нанять контент-специалистов / младших авторов / методистов и создавать единицы контента вручную. у таких специалистов есть некая ставка в час / в неделю / месяц + скорость производства 1 или 10 единиц контента

• если ты это делаешь в полу-автоматическом режиме, то мы ожидаем, что ты это делаешь быстрее и дешевле в пересчёте на единицу контента (возможно даже для того же объёма контента хватит 1-2 специалистов вместо 4-5 как раньше). скажем, раньше на контент тратилось 30-40% от выручки обучающей программы, сейчас 10%. дельта в 20-30% = твоя вэлью, принесённая платформе

Сценарий 2: если LLM с базой знаний - продукт сам по себе

• важно принять факт, что промпт-инженер отчасти похож на ML инженера: в обоих случаях у нас есть некий черный ящик – "данные+фичи+модель" или "база знаний+промпт+модель". мы можем менять каждую из компонент, пробовать другие модели, подкручивать фичи/промпт, пополнять базу знаний, получая то или иное изменение поведения модели. чтобы действовать не как слепой котёнок в чёрной комнате (и подкручивать промпты чтобы подкручиавать промпты, по интуиции), эту систему нужно покрывать теми или иными метриками: либо оффлайн (например собрать 100 пар запросов-ответов, прописанных экспертом), либо онлайн (метрики пользователей - CSI, NPS, доходимость курса, оценки, ретеншен именно AI-компоненты)

• онлайн метрики в свою очередь влияют на продление подписки (если у вас подписочная модель), на сарафанку (= бесплатные лиды), на бренд (= больше доверия, рост конверсии в оплату), на апсейлы (родителям хочется купить ребенку другие курсы на платформе). Если ты можешь показать, что твоя работа над промптами/базой знаний улучшила хотя бы одну из этих метрик - это и есть твоя value в деньгах

• если ничего из перечисленного не трекается, нужно начать с того, чтобы собирать эти данные, а не заниматься "invisible work", невидимой работой, которая не приносит измеримого результата

ЭЯЙЭЯЙ8 августа 2025 г.1.2K просмотров

В 6-м классе у нас был один парень Саша, вечно в кроссах чище, чем у остальных, и с рюкзаком, в котором всегда пряталось что-то, чего не было у других. Однажды он достал первый iPhone. И мы сели всем классом и зависли. Пока мы щёлкали кнопки на Нокиях, играли в Змейку и слушали записаные на диктофон песни, блестящий сенсорный экран, который держал в руках Саша реагировал на прикосновения и отвечал. 3,5‑дюймовый мультитач казался экраном из фантастических фильмов. Мы передавали его по кругу, как священный трофей, и, конечно, никто даже не мечтал его тогда купить, просто стояли и смотрели, будто на кусочек будущего. В тот момент технологии впервые заставили меня затаить дыхание.

У Саши всегда появлялись айфоны раньше всех. Первый 3G, потом iPhone 4 с FaceTime. Каждый раз, когда он доставал очередной, мы собирались вокруг, будто на полет первого космического корабля.

Сейчас я испытываю точно такие же и эмоции, когда выходит очередная обновленная версия GPT.

GPT‑5 выкатили 7 августа. Один стек для коротких ответов и последовательного рассуждения. Жирный контекст в 256 тысяч токенов, многошаговые задачи без потери нити. Меньше микроменеджмента, галлюцинаций, практичные агентские сценарии.

Агентский режим гоняет по агрегаторам и прямым сайтам, сравнивает условия и кидает готовые варианты, находит выгодные билеты , отели , товары на маркетплейсах под тематику.

Сам Альтман говорит, что это первый раз, когда разговор с ботом действительно ощущается как беседа с экспертом с PhD.

А в режиме thinking (ее уже основательно затестила ) модель уходит в качественный глубокий ресёрч и возвращает быстрый ответ с качеством глубокого исследования и скоростью самой быстрой модели. Здесь прям кайфанула. Я очень много работаю с разноформатным текстом и разницу в качестве ощутила сильно. Сейчас активно прорабатываю рабочие кейсы в этом режиме.

«Субличности» Cynic, Robot, Listener и Nerd, если хочется «особенного отношения» и человечности 😄.

В общем Саша больше не приносит новые iPhone в школу, да я и себя в школу не приношу уже лет так 12. Но ощущение, будто ты наблюдаешь за запуском космического корабля, остались со мной по сей день. С каждым новым релизом.

Надеюсь, что он не растерял свой энтузиазм к инновациям, и уже затестил gpt-5, как и вы .😄

дельфин дружит с кукушкойдельфин дружит с кукушкой30 марта 2026 г.1.1K просмотров

В комментариях мне напихали тезисами утвержденными ChatGPT и справедливо уточнили масштаб: технически Pretext библиотека, не новый стандарт. Согласен. Но я смотрел с другой стороны.

Идеи существуют десятилетиями, пока кто-то не делает их достаточно удобными. Интерфейсы придумали в Xerox PARC (мне омар хайям нашептал), а культурный эффект начался с Макинтоша. Нейросети описали в 80-х, революция случилась когда появился ChatGPT с полем ввода. У любой революции должен быть удобный интерфейс.

Pretext пока не революция. Но шаг в сторону текста как управляемого материала заметный. Посмотрим, кто первый сделает из этого интерфейс, которым захочется пользоваться.

А я пока попытаюсь сделать что бы текст валил как дым из под колес гонки управляемой дельфином. Посмотрим что из этого выйдет.

атлант расправил плечиатлант расправил плечи4 ноября 2025 г.1.1K просмотров

Корпоративный смузи или стартаперское пекло? или как я потратил 13 часов на найм

11 октября я опубликовал вакансию на Python AI разработчика. С тех пор я провел 20+ собесов, суммарно потратил на все 13 часов (включая выдачу тестовых и ревью).

Буквально в тот же день попросил Богдана репостнуть и получил куча срача в его чате, сторонников и противников, куча угарающих смайликов (походу с вилки) и даже свою первую негативную реакцию на пост (спойлер: меня это не сломало 😁)

Что меня поразило: - насколько же люди действительно парятся о том какой теннисный корт будет у них в офисе, сколько раз в день будет манговый шейк и чтобы все по ТК РФ было - завышенные ожидания (все хотят получать 400к в стартапе, но работать в таком же темпе как и в корпе, а еще время не трекать - зачем, начальник же будет знать сколько я ничего не делаю) - использование AI Coding Tools ~ 15-20% кандидатов использовали хоть что-то (хотя бы просто ChatGPT). Про Cursor, MCP, AICODE-*, Claude Code, Rules, документацию проекта - вообще молчу, ни одного человека не встретил (если что я не на HH искал)

Какие советы могу дать тем, кто будет нанимать (не претендую на HR-экспертность, но на личных ожогах говорю): - не ищите людей из корпов в стартапы (по крайней мере из типичных черепашных корпов), тк потратите кучу денег на них, а до выхлопа будете идти долго - обращайте внимание на студентов, молодых в целом людей, которые еще толком нигде не работали, но при этом не совсем универские джуны (с такими тоже очень сложно); лучше инвестировать в их обучение и обучить под себя, выйдет дешевле человека из корпа - давать ли тестовое? да; обращать ли внимание на личные качества? да; но это все еще не показатель и не решающие факторы. только поработав с человеком неделю (мне достаточно) в боевом режиме - можно понять - твой персонаж или нет - то что человека драйвят деньги - это нормально (лично я money first man), но если кроме них его ничего не интересует и он не задает особо вопросов про проект - сразу минус - 30-минутных созвонов более чем достаточно чтобы отсеять «холодных лидов»; старый формат часовых многоэтапных собесов - отрицаю

В целом, это очень крутой опыт и я рад что апнул тут свою скиллуху) Кто бы что не говорил, а делать стартапы - это круто)

Я как-то написал в чате у Богдана, что вероятность вырасти до CTO в стартапе в десятки раз выше чем в каком-нибудь Яндексе. Многие просто посмеялись, но я все равно придерживаюсь этого мнения. Какие риски? Да такие же, в 10 раз выше, но вопрос ведь в том что ты хочешь от этой жизни) Лично мне намного кайфовее работать с людьми, которые готовы рискнуть в моменте, не получать по рынку месяц, два, три, но поставить на рост в горизонте полугода, тк я сам такой 😊

Расскажите о вашем опыте как работы в найме/стартапах, так и самого найма, делитесь инсайтами)

Кстати, напоминаю, что я выделил ограниченное количество часов в неделю/месяц и консультирую по бусту любых ваших AI-skills) Стучитесь в личку @nikmd1306

Счастливый тимлид | ♥ FrontendСчастливый тимлид | ♥ Frontend3 октября 2025 г.1.1K просмотров

Cannot find module

Ужасно правдивая сага про одержимость, искуственный интеллект и победу человеческого разума

В комнате царил полумрак. Евгений пялился в монитор широко раскрытыми глазами. Желтый текст на черном фоне был подчеркнут ярко красным зигзагом. Круглые часы на столе с такими же ярко красными цифрами показывали нули. Полночь.

Это не было серьезной проблемой. Проект собирался и работал. И работал так всё время, с момента получения доступов. Но вот это ужасное чувство, знакомое каждому перфекционисту, разрушало его изнутри, не давало ему спокойно жить. Это желание сделать идеально, так чтобы всё было четко и правильно, заставляло его сидеть ночами и искать решение. Он не мог позволить себе закрыть глаза на ошибки или прикрыть их позорным, в его глазах, ts-ignore.

Картинки. Простые картинки стали ночным кошмаром, превратились в неразрешимую задачу. Он сделал всё, что делает опытный фронтентер: читал документацию, бесконечно гуглил, обновлял библиотеки. Но IDE словно издевалась, снова и снова подчеркивая проклятый импорт.

StackOverflow, Gemini, ChatGpt, Perplexity — все инструменты, и с искуственным, и с человеческим интеллектом, говорили одно. Добавь declare module и всё заработает. Но оно не работало. Не работало. Не работало!

Тогда Евгений пошел на крайние меры. Он купил Cursor и открыл проект в нем. Давай, братишка, почини этот баг. Как же он меня достал! Но курсор не справился ни с первой попытки, ни со второй, ни с десятой. Каждая генерация лишь предлагала известные решения, которые не работали. Даже сам курсор удивлялся «Проверяю. Не работает. Значит дело в другом.» И так по кругу. Идеальная машина по сжиганию токенов.

Чтобы спасти планету от лишних выбросов CO2 и разорвать проклятый цикл, Евгению пришлось принести в жертву и удалить tsconfig.json из проекта. ИИ должен был создать его заново, словно феникса из пепла. Обновленного, без изъянов! Но ИИ, напичканный токенами, будто в пьяном угаре вошел в кураж и изрыгнул из себя франкенштейна на четыреста безумно отвратительных строк. Хоть может работает?

> Restart Ts Server Cannot find module './src/logo.png' or its corresponding type declarations.

Дааа, не так я себе это представлял. Евгений сбросил все изменения дурачка ии и выглянул в окно. Огромная кроваво красная луна зашла за шпиль Лахта-центра. Разделилась на две половинки. А это идея!

Он подошел к компу, создал новый файл files.d.ts и перенес в него только декларации для картинок. Ошибка мгновенно исчезла. Как будто ее никогда и не было.

И никто никогда не узнает, что она тут была. Никто не узнает подробностей этой страшной битвы на пороге дней. Никто не похвалит Евгения, и тем более не даст награды. Всё встало на свои места, а в масштабах вселеной, так и вовсе не изменилось.

И только Евгений впервые за долгое время уснет спокойно.

© Счастливый тимлид

Репост и подписка крайне приветствуются <3

дельфин дружит с кукушкойдельфин дружит с кукушкой10 февраля 2026 г.1.1K просмотров

Сегодня придумали промпт, который может довести до слез любого. Потестили. Глаза и вправду увлажнились. ChatGpt здесь слабак, а Claude походу может соревноваться с Хемингуэем. Не придумали только название того, что мы придумали с участием достопочтенных ЭйАйЛеры, Дани Трабуна, Васи Сонькина и автора этой заметки. Но будет разговор

и спасибо большое Сереге, что нас всех организовал и продакшену 1147

Горшочек варитГоршочек варит23 апреля 2025 г.1.1K просмотров

Детальный разбор StreamTransformSelector, пожалуй, выходит за рамки формата телеграм поста. Пытливый читатель может найти код реализации здесь. Я же отмечу, что основной вызов это правильно перевязать controller внешнего стрима с readable и writable внутреннего стрима. Это то, с чем я не справился в прошлый раз: решение работало для небольших данных, но взрывалось на больших. Было очевидно, что какой-то из стримов не успевал завершить работу и закрывался слишком рано, что приводило к неполным данным на конце и ошибке парсинга. Отлаживать стримы достаточно проблематично, многое происходит под капотом, просто некуда поставить брейкпоинт. А специализированных инструментов под отладку пока не изобрели.

Так, применяя все свои навыки отладчика, я перепробывал все идеи, но мне так не удалось исправить проблему за полчаса. И я уже был готов сдаться. Но вспомнил в какое время мы живем, и решил почеленджить ChatGPT этой проблемой. Не без скепсиса. Прошлый раз, в декабре, ChatGPT на вопросы про код с веб стримами выдавал откровенный бред. Но за это время модели прокачались (без сарказма), как знать, может что-то изменилось. Описал проблему, приложил код StreamTransformSelector, и скормил ChatGPT. В итоге, GPT4o не справилась, переписала мой код в нерабочий (добавила дедлок). А вот o3-mini-high, на удивление, с задачей справилась. По сути, своим ответом, модель подсказала то, что я упустил, нужно было дождаться pipeTo() во flush(), кто бы мог подумать.

Более того, o3-mini-high предложила альтернативный вариант, т.н. "A Simpler “Lookahead” Approach", когда используется асинхронная функция, вычитывающая первый чанк, создающая TransformStream на его основе, и потом, в цикле, перекидывающая чанки из одного стрима в другой. Похожее решение было и у меня, то с чего начинал попытки встроить DecompressionStream, но в итоге от него отказался. Стоит отметить, что имплементации не совпадают один в один, в моей реализации я использовал pipeThrough() вместо цикла. Но сути это не меняет, и проблема вовсе не в цикле, а в эргономике: при таком подходе уже не получается композировать стримы только лишь через pipeThrough(), приходится перемешивать стримы с промисами, как-то так:

async function consumeStream(input: ReadableStream) { const stream1 = input.pipeThrough(...); const stream2 = await applyStreamTransformers(stream1, transformers); const finalStream = stream2.pipeThrough(...);

// ... }

Для сравнения, без перемешивания с промисами:

async function consumeStream(input: ReadableStream) { const finalStream = input .pipeThrough(...) .pipeThrough(new TransformStream(new StreamTransformSelector(transformers))) .pipeThrough(...);

// ... }

Трансформеры не обязательно должны менять данные, которые через них проходят. Например, трансформер может нарезать чанки на более мелкие, или наоборот – буферизировать. Они также могут считать размер проходимых через них данных и таким образом можно отображать прогресс:

const finalStream = stream .pipeThrough(new TransformStream(new ProgressTransformer(setProgress))) .pipeThrough(...)

Часто упоминают вместе с ChatGPT