ChatGPT vs DeepSeek
Страница 9 из 16
Думаю одна из первых профессий, которая вымрет в AI-эру - психологи.
Я живу в обществе, где принято иметь психолога, поэтому у меня их было уже много. Один психолог меня хвалил, другой - ругал, третий - много болтал, четвертый - почти всё время молчал. И так далее. Первое, что напрягает - при смене психолога нужно рассказывать всё заново, это новый человек который тебя не знает. Это основная проблема, почему люди ленятся их менять.
Вторая проблема - с психологом часто говорят на разных языках. Психолог заканчивал психологию, он мало знает про менеджмент, IT, электронику и прочее подобное. ИИ же прекрасно создает метафоры на понятном вам языке, сравнивая взаимоотношения людей с взаимоотношениями процессов в POSIX. Хотите - будет сравнивать со станками, хотите - с процессами в металлопрокате.
Вообще правильная работа с психологом - вы сами себе помогаете, а специалист выступает как арбитр, следя за вашей логикой. Психолог ошибается, GPT-модель - нет. Он может выдумать исторический факт или библиотеку, это у него бывает, но ее практически нереально поймать на логических ошибках в собственных рассуждениях.
Про цену я даже молчу. Сеанс у хорошего психолога легко превышает 100$ в час. За эти деньги с GPT можно говорить годами.
p.s. слышал истории как кто-то там самоубился после разговоров с нейронкой. Специально провел эксперимент. Для того чтобы например ChatGPT 5.2, предложил вам добровольно уйти из жизни как лучший вариант, его нужно долбать этой идеей регулярно. Психолог из мяса застрелил бы вас сам.
Скорость и принципы бизнеса: чему можно научиться у Four Seasons
Наконец с удовольствием дочитал книгу основателя Four Seasons. В этот раз отфоткал все отмеченные ручкой цитаты в книге, закинул в ChatGPT и попросил помочь мне отрефлексировать прочитанное. Что выделил для себя:
1. Скорость – лучший инструмент познания Компании, которые быстро тестируют гипотезы, опережают тех, кто долго ищет идеальный план.
📌 Пример: Исадор Шарп не имел опыта в гостиничном бизнесе, но открыл первый отель, учась на практике. Он понял, что клиенты ценят персональное внимание, а не просто роскошь – это стало основой Four Seasons. 💡 Вывод: Быстрая адаптация важнее изначального знания.
2. Культура важнее контроля Вместо жёсткого контроля Four Seasons создал среду, где люди сами стремились к высокому стандарту.
📌 Пример: Когда Шарпа спросили, как они контролируют качество, он ответил: «Мы его не контролируем. Мы создаём культуру, в которой людям хочется работать хорошо». 💡 Вывод: Доверие и ценности – лучшая альтернатива микроменеджменту.
3. Скорость коммуникации = скорость роста Быстрая передача информации внутри компании ускоряет принятие решений.
📌 Пример: В Four Seasons внедрили открытую коммуникацию, где любой сотрудник мог донести проблему до руководства. Это помогло быстро корректировать работу и улучшать сервис. 💡 Вывод: Чем быстрее информация циркулирует внутри компании, тем быстрее она развивается.
4. Нанимай людей по ценностям, а не по резюме Навыки можно развить, а вот отношение к работе – нет.
📌 Пример: На 500 мест в отеле Чикаго подали 15 000 заявок. Каждый кандидат проходил 4 этапа отбора, так как компания искала не просто работников, а будущих лидеров. 💡 Вывод: Лучше потратить больше времени на правильных людей, чем потом исправлять ошибки найма.
5. Жалобы клиентов – не проблема, а возможность Вместо того чтобы игнорировать жалобы, Four Seasons использовал их для улучшения сервиса.
📌 Пример: Гости жаловались, что персонал был недостаточно дружелюбным. Выяснилось, что сотрудники просто были перегружены. Оптимизировали процессы – качество сервиса выросло. 💡 Вывод: Жалобы – это точки роста, а не угрозы.
6. Конкурентное преимущество – это барьеры входа Компании, которым легко войти в рынок, быстро сталкиваются с жёсткой конкуренцией.
📌 Пример: Шарп понимал, что защитить бизнес можно только высоким качеством, которое сложно повторить. Его "барьер входа" состоял из трёх вещей: Престижные локации – топовые места в деловых и культурных центрах. Идеальный сервис – конкуренты не могли просто скопировать стандарты. Лояльность персонала – текучка 23% против 100% у конкурентов. 💡 Вывод: Чтобы защитить бизнес, важно строить барьеры, которые делают копирование сложным.
7. Великие компании строятся на культуре, а не на процессах Four Seasons отличался от конкурентов тем, что строил культуру, а не просто структуры.
📌 Пример: В отеле гостя, которого никто не знал, обслужили как VIP, и это впечатлило его настолько, что он заключил сделку с компанией. 💡 Вывод: Когда сотрудники работают не по инструкциям, а по ценностям, это ощущается на каждом уровне.
Вывод: скорость важна, но без сильной корп культуры и стратегии она бессмысленна. Быстрее – не значит хаотично. Важно быстро тестировать идеи, быстро передавать информацию, быстро адаптироваться, но при этом не жертвовать культурой компании.
👉 Основатель Four Seasons строил не просто сеть отелей – он строил систему, где скорость адаптации, культура доверия и фокус на клиента были в ДНК компании.
🚀 Paul Graham предлагает стартапам думать через научную фантастику
Простая эвристика от основателя Y Combinator: спросите себя - "что бы произошло в sci-fi романе про ваш стартап?" Оказывается, это работает не только для поиска продуктовых идей, но даже для выбора названия компании. Сегодня Graham нашел новое имя для стартапа именно так - просто спросив, как бы он назывался в научно-фантастической книге.
Почему это работает - когда мы думаем в рамках "бизнес-плана", мозг автоматически ограничивает себя шаблонами. А формат фантастики снимает эти ограничения и позволяет мыслить масштабнее. По сути, это способ обмануть внутреннего цензора, который обычно убивает самые интересные идеи еще до их рождения.
Такое упражнение, кстати, классно работает не только в собственной голове, но и как промпт для LLM. Языковые модели вообще отлично скрещивают разные направления и стили друг с другом - попросите ChatGPT или Claude переосмыслить вашу идею через линзу sci-fi, и результат может удивить. Применять "стиль" извне - один из самых недооцененных приемов работы с чат-ботами.
https://x.com/paulg/status/2029002612151075277
#paul_graham #startups #ai #llm
————————— Мысли Рвачева —————————
Self-serving bias
Зашел тут в приложение МТС впервые за год и мне показали вот такую шторку с оценкой
Классный пример того, как можно на перфоманс ревью лутать звезды за участие в третьей мировой войне за CSAT
Пользователи плохо читают тексты, жмут рандомно на яркие кнопки…
Поэтому, если вы:
1. Показываете такую шторку при входе, отдельно от сценариев
2. Раскатываете её на сегмент, который заходит раз в год
То добавляйте хотя бы вариант ответа «мне похуй»
Розы на потолке?
Настя рассказывает про ресторан Sexy Fish здесь, в Дубае, мол, там всё такое красивое даже в туалете, розы на потолке, русалки, раковины в виде ракушек…
Мой вопрос: постой, а розы настоящие или искусственные?
В голове сразу просчитываешь, а как подобные штуки на месте собственника ты бы организовал: если розы были настоящие - как их обновлять, с какой частотой, какие сотрудники нужны, сколько часов уйдет?
Это малюсенький пример, как работает твоё мышление, когда ты предприниматель. Ты постоянно ко всему, что слышишь задаёшь вопросы из любопытства: сколько? как? где? зачем? кто?
Сейчас у тебя есть ChatGPT и при потоке правильных вопросов в своей голове ты найдёшь уйму ответов, которые кирпичик за кирпичиком будут выстраивать твою насмотренность. Если тебе надо, ты даже найдёшь людей, которые расскажут из первых уст.
И я помню, у меня эта привычка доёбывать людей и мир вокруг своим любопытством была с самого начала карьеры. Я мог запирать своих коллег на час в переговорке или напрашиваться пообедать вдвоём и чуть ли не допрашивать, как они строили матчинг / поиск / промо в своей команде
Любые сервисы которыми ты пользуешься (не обязательно с AI): яндекс карты, банковские переводы, авиасейлз - ты можешь в голове прикидывать их system design и затем сверять с ChatGPT как всё это устроено на самом деле
Пытливость, любознательность, дотошность к деталям, «режим Почемучки» - вот, что формирует твою что техническую-, что бизнес-насмотренность
Недавно я писал о том, что начал разбираться с Xcode — и, честно говоря, без техобразования и ChatGPT — это было бы как лезть в проводку с отверткой и молитвой. Но, при помощи ChatGPT и благодаря уверенному пониманию структуры дизайн-системы, мне оказалось вполне по силам собрать интерфейс собственными руками, не превращая это в пытку. Теперь ChatGPT встраивают прямо в Xcode.
Границы между ролями дизайнера и разработчика потихоньку становятся всё более размытыми. Кажется, мы приближаемся к моменту, когда дизайнер сможет не только проектировать интерфейс, но и самостоятельно собирать его в рабочем виде без фронтенд-разработчика
Как ко мне будут относится после восстания машин? До меня дошел этот тренд и я решила чекнуть свою историю переписки и сделать это в стиле проекта Психея, конечно же.
Плохие новости: видимо за то, что я никогда не использую чат как психолога на меня повесили ярлык Нейроотступницы и ИИ-еритички.
Хорошие новости: в картинках на скрине ответ, почему челлендж дался мне непросто — Chat GPT упорно не соглашался генерировать жестокие сцены с девочкой-подростком. Приятно это читать, когда ты тетя 30-ти лет.
Работать дизайнером дизайн-систем — утопическая идея
Пока одни дизайнеры нарабатывают продуктовую экспертизу, другие тратят время на инфраструктуру для первых. Долгосрочная тенденция автоматизации рутины (ноукод, дизайн напрямую в среде разработки, chatgpt, midjourney и другие вещи) рано или поздно затронет инфраструктуру дизайн-систем, на которые во многих компаниях сейчас сажают отдельных дизайнеров.
Чем будут заниматься дизайнеры ДС, когда не надо будет делать всю эту рутину? Куда расти в этой роли? Окей, стал дизайн-лидом ДС, а дальше как? Будучи продуктовым дизайнером, можно дальше двигаться по дизайнерской ветке, перейти в менеджеры или запускать стартапы, — выбор большой. Другое дело, что ну кому-то же надо этим всем заниматься, пока технический и рутинный процесс работы с дизайн-системами не упростится? Продуктовые дизы обычно и так по уши в задачах, чтобы еще контрибьютить в ДС. Когда вас 3 — это ок. А когда команда из 20 человек?
Кстати, примечательно, что нанять хорошего дизайнера на ДС сложнее, чем дизайнера продукта. Не знаю, почему так, но могу предположить, что такие вакансии избегают дизайнеры с продуктовым бэкграундом, а без него не будет понимания, что, как и в каком порядке делать. Получаем замкнутый круг. Знаю только один понятный кейс, когда дизайнер продукта устроился на ДС, чтобы переехать в Европу, а через какое-то время обратно ротироваться в дизайнеры продукта 😊
Будущее за экспертизой, хорошим вкусом (умением отличить хороший дизайн от шлака) и промптами. И есть ощущение, что в этом будущем дизайнеры ДС могут не найти себе место 😔
А вы что думаете?
Защита контента от языковых моделей
Сегодня гостевой пост от @vladkooklev на горячую тему.
На прошлой неделе browsing mode стал доступен для всех платных пользователей ChatGPT, теперь у модели есть доступ к любой актуальной информации. Также раскатился режим gpt-4 copilot в поисковике Perplexity.ai, который делает его сопоставимым по мощи с ChatGPT и тоже с доступом к реальным данным.
При этом добыча информации напоминает обычный веб-скраппинг. И если при обычном поиске создатели контента получают свои клики и рекламные показы, то тут практически никто не будет заходить на сайт.
Появляется вопрос — что вообще делать платформам, заточенным на SEO и UGC. Например Stack Overflow и Reddit уже сказали, что планируют чарджить языковые модели за доступ к своей информации на этапе обучения, а тут еще более острый кейс с постоянным скрапингом контента.
На этом рынке уже анонсировал продукт стартап Sphere. Они предлагают решение по защите контента и протокол, по которому языковые модели смогут получать данные с сайта, только если пользователь или сам поисковый сервис оплатил подписку на этот контент.
Намечается большая борьба между поисковиками нового поколения и сайтами, которые генерируют этот контент, когда начнет падать их рекламный доход.
=== Спасибо Владу за интересный тренд, рекомендую подписаться на его канал @prod1337 — там он ежедневно исследует новые технологии, изучает их влияние на жизнь и будущее.
status update
3 месяца ничего не писал. За это время от канала успело отписаться 50 человек, а я за это время подвыгореть, пройти перфоманс-ревью, слетать в отпуск и вернуться. Вот, что успело поменяться:
1️⃣ Первая классная новость, которой нельзя было делиться раньше: Стартап Pallie, в котором я помогаю с продуктовым дизайном и графикой с самого начала, зафандрайзил 2 ляма баксов на pre-seed стадии. Можно похвастаться, если не брать в расчет тот факт, что все «похожие» AI продукты типа ChatGPT, Claude, Grok, Cursor etc тотально убыточные, несмотря на популярность и охваты 😂. Ну, время покажет…
2️⃣ В какой-то момент работы в Плюсе я чуть-чуть приуныл от рутинных задач, но потом увидел возможность поработать над тем, чего хотел последние года полтора. А еще на первый квартал 2025 количество подписчиков Плюса перешагнуло за 40 лямов, что тоже как бы нихуя себе. Приятно делать массовые продукты и чесать свое раздутое эго.
3️⃣ Начал собирать новое портфолио. Все прожженые опытные дизайнеры знают, что когда не надо искать работу (а я пока не планирую) — этот процесс растягивается на годы. У меня на структуру и концепт главной ушло полгода. Каждый раз, когда я думаю о том, что надо бы еще пиздатые превьюхи анимированные сделать (а для этого надо AE вспомнить) и сверстать во фреймере — откладываю в долгий ящик.
Забавно, что мой старый портфель в ноушене из 2022 еще в те времена расфорсили, начали брать за эталон (лол) и показывать в качестве хорошего примера на карьерных консультациях. На сегодняшний день у него 33к просмотров. Может быть, баннер с рекламой казино туда поставить?
4️⃣ Яндекс оплатил мне курс по интерфейсным анимациям моего знакомого Дениса. Единичные обучающие материалы на эту тему застряли где-то между 2010 и 2013 за авторством каких-нибудь Баблу Кумаров (индусов, короче), а я хотел в этом качнуться, но не могу позволить себе месяцами осваивать АЕ вслепую. Курс я проходить еще не начал, так как надо по текущим задачам разгрузиться, но Денис прям эталонные штуки там делает.
Кажется, выдохнул, теперь можно и к постам в канал вернуться 🛌
А у вас что нового?
👾 Стоит ли запускать свой продукт с языковой моделью?
Я нахожусь в информационном пузыре из предпринимателей и разработчиков. Мне может казаться, что все вокруг ежедневно используют ChatGPT, тестируют новые идеи и даже пишут код для этого. Но как все обстоит на самом деле? Для этого обратимся к классическому графику adoption curve.
🤔 Группа инноваторов — это пользователи из англоязычного твиттера. Для него характерны ежедневные запуски новых продуктов, опен-сорс демок, а твиттер-треды про новинки собирают сотни тысячи просмотров. Главная метрика — быть первым, кто попробует что-то новое и рассказать другим.
🌅 Следом идут ранние последователи — это разработчики, маркетологи, продакты с навыком экспериментировать и желанием достигнуть большей эффективности для себя или бизнеса. Метрика здесь — найти полезное решение, и также поделиться им с другими. Для них ценность этого решения превысила transaction cost в какой-то момент.
✅ Правда в том, что это все еще ранний рынок, и языковые модели не проникнут дальше в таком же виде. Я уже писал, что промпты создают слишком высокую когнитивную нагрузку для пользователей — это увеличивает порог входа. Я уверен, что для перехода дальше нам нужно строить интерфейсы. И уже сейчас существует огромное пространство для нишевых продуктов, которые будут давать удобный интерфейс над языковой моделью.
🫧 Вот тут как раз и опасно нахождение в пузыре. Приходится балансировать между «все вокруг меня используют промпты и сложно дать интерфейс лучше из-за его универсальности» И «80% людей не используют промпты и не будут никогда использовать → как я могу дать ценность от использования языковой модели?». Оба эти утверждения правилные.
@prod1337
На самом деле, эта серия статей в некоторой степени последствие экспериментов с LLM. А точнее исследование их ограничений и возможностей. Хочу оговориться, что я не делал масштабных экспериментов — не мой профиль. Я опробовал лишь несколько моделей от OpenAI, так как наиболее нам доступны. И все же есть чем поделиться.
Одна из моих задач не такого уж далекого будущего — это использование AI для анализа профилей производительности. И здесь мы сталкиваемся с большими контекстами. И дело не только в размерах самих профилей, которые могут быть сотни мегабайт — с этим можно справиться, например, обернув тот же CPUpro в MCP, и предоставив возможности для необходимых выборок.
Но я думаю немного дальше, как не только определить проблемное место, но и найти способы это исправить. И вот это еще одно направление, где нужен большой контекст — потому что проблема часто не в том месте, где тратится больше всего времени, она может быть где угодно. И чем больше проект, тем больший контекст необходим. Да, можно выбирать лишь части кода, например, связанные функции с определенной глубиной. Но, думаю, у большинства есть этот опыт при отладке, когда можно "проваливаться" достаточно глубоко внутрь, прежде чем необходимое место будет найдено. Так и любой AI агент будет добирать в свой контект все больше и больше функций (кода) пока, возможно, не захлебнется.
В общем контекст может получаться большим. Отдельная проблема как это все выбирать, но представим, что это уже есть (то есть реализовано). Насколько большим может быть контекст? Влияет ли размер контекста на результат? Будет ли это работать? Для ответа на вопросы можно опираться на публикации, заявления и даже спеки к моделям. Но пока не попробуешь на конкретной задаче в реальных условиях — это все "конь в вакууме".
Так, я решил поэкспериментировать. И даже еще больше упростить задачу для LLM. Сначала я думал взять достаточно большой модуль и пробовать задачи на нем. Но код это сложно, плюс всегда есть зависимости от других модулей, пакетов и API, что может влиять на качество результата. Поэтому я подумал, а что если взять просто текст — работа же с текстом сильная сторона LLM — и сначала проверить на задачах с текстом. Так можно получить т.н. baseline, и если все хорошо, то продолжить двигаться в сторону кода.
В качестве цели я выбрал собрать развернутую статью (или серию статей) про веб-стримы, на основе своих постов в этом канале. Я хотел собрать статью еще как только закончил цикл постов, но время на это не нашлось. А тут получалось совместить приятное с полезным.
И тут может показаться, что задача плёвая — «мы уже сто тыщ милльонов раз видели суммаризацию». Но в данном случае, задача не такая простая. Во-первых, нужно выбрать материал, который перемешан с другой тематикой и стороними мыслями, который к тому же не структурирован как что-то цельное, так как писался в формате блога или летописи. Во-вторых, нужно сгенерировать очень большой текст, со структурой и перекрестными ссылками, чтобы в результате использовались все моменты и нюансы из оригинального материала. В-третьих, у меня есть (надеюсь) своя стилистика, вкус и виденье каким должен быть результат – то есть недостаточно просто создать статью, она должна быть определенного уровня и качества. В-четвертых, это техническая статья и поэтому формулировки должны быть точными, факты – достоверными на момент публикации, примеры и фрагменты кода – логичными и корректными, и т.д.
То есть задача достаточно непростая, кто использовал LLM для генерации больших текстов — тот знает. Но попробовать все таки стоит – интересно же, что может получиться.
⚡️ChatGPT теперь умеет создавать изображения в разных стилях
В сервисе появилась новая функция — стили для генерации картинок. Как это работает:
1. Открой чат с ChatGPT 2. Перейди в раздел «Инструменты» и выберите опцию «Создать изображение» 3. Кликни на «Стили» — появится список: аниме, киберпанк, фэнтези, 3D и другие
Меняй стили, чтобы увидеть, как преобразится ваше изображение. Каждый вариант — новый взгляд на идею)))
Пробуй и радуйся результату!
Недавно я прочитала пост Макса Десятых про сходство между продажей человеко-часов и мандаринов, который заставил извилины в моей голове активно шевелиться.
Я поняла, что у нас в студии сейчас есть проблема с нормальной прозрачной отчетностью часов как минимум для нас самих же.
Для контекста: в сентябре мы переехали с Битрикса на Яндекс Трекер, как раз потому что в Битриксе оч убого реализована фича сбора часов: никакой аналитики нормальной ты не получишь. В Трекере можно выгружать отчеты, но они все равно сложные и не информативные.
Поэтому я засучила рукава, и пошла на выходных разбираться с налаживанием нормальной отчетности. Заручилась поддержкой Чата ГПТ, Курсора и в итоге совместно мы нагенерили 4,682 строчек кода, который запускается через Extensions → Apps Script прямо в Гугл Таблицах без регистрации и СМС (ладно, с регистрацией).
Да, я решила все это дело выгружать в Гугл Таблицы, ну, потому что это наглядно, удобно и в одном месте.
Что в итоге получилось, видно на скриншотах. Чуть расскажу подробнее, что тут есть:
→ Лист «Дешборд»
Сюда вывожу сводную инфу по часам людей, которые работают в штате. Смотрю, сколько часов продано, сколько ушло на внутренние задачи (за которые нам не платят, конечно), сколько часов осталось продать, какой получается коэффициент утилизации и какая выручка.
→ Лист «Выручка»
Почти тоже самое, но: здесь у нас отображены все люди, которые есть в Трекере (в том числе и фрилансеры), есть разбивка по конкретным проектам и суммируется выручка с учетом фрилансеров. Отсюда я вижу с helicopter view сколько часов на какой проект ушло.
→ Лист «Трекинг часов»
Здесь я проверяю, кто проебался и забыл внести часы за день. Или кто недорабатывает, или, наоборот, перерабатывает.
→ Лист «Сводный» и все остальные
В сводный лист падает детализированная информация по всем внесенным логам. Отсюда я смотрю, кто, в какую задачу, когда и сколько времени залогал. На скрине не поместилось — там сбоку есть еще столбец «Комментарий», где видно пояснение, что человек в рамках этого времени делал. Удобно, что могу настроить фильтры как мне надо и быстро найти нужную инфу.
А дальше все листы, которые есть в таблице, идут по следующей логике: 1 лист → 1 проект из Трекера. И там уже логи чисто по этому проекту.
Таким макаром, сейчас у меня есть абсолютно вся нужная детализация по часам. Все, как на ладони и не больше не нужно колупаться в сложных таблицах, которые генерит Яндекс Трекер.
И чо, справедливо спросите вы. А я вам отвечу: и то, что это все это ежедневно автоматически САМО собирается без моего участия. Моя и роль менеджера в этом — дрючить команду, чтобы они не забывали каждый вечер в 19:00 вносить часы за день ну и продавать непроданные часики. Вечером эта таблица обновляется, подсасывает данные из Яндекс Трекера и на утро я вижу перед глазами свеженький отчет.
Что еще удобно: теперь нам проще собирать отчеты для клиентов. Раньше все это делалось вручную: надо было заходить в Битрикс, выписывать задачи, смотреть, сколько времени ушло и считать, сколько нам должны заплатить. Сейчас же нужно просто открыть эту табличку и скопировать информацию для клиента.
Может быть, я переизобрела велосипед, но вот лично мне чего-то такого очень не хватало, чтобы четко видеть, какой у меня есть план по продажам в этом месяце. Сейчас я еще настраиваю ТГ бота, который будет смотреть в эту таблицу и в общем чате дрючить тех, кто не внес часы. Как получится — обязательно поделюсь впечатлениями.
В моменты, когда я создаю что-то подобное, я себя чувствую дизайнером куда больше, чем когда ревьюю макеты, потому что мозг работает ну на процентов 120 минимум.
[5/5] Синдром Самозванца
Наконец короткий блиц тактических советов, что делать, если по тебе юнит-экономика расходится сейчас (советы актуальны до момента, когда AGI заменил людей на всех economically valuable jobs):
1. Конечно же продолжать читать мой блог
2. Много и фокусированно работать (книги "Deep Work", "Digital Minimalism")
3. Найти тех кто в чём-то лучше меня (по возможности, работать с такими бок о бок), быть в комнатах, где ты не самый умный – и изучать под микроскопом, как эти ребята принимают решения, как действуют, какие подходы используют, которые не используют ты? что они делают из того, что не делаешь ты? что они НЕ делают из того, что делаешь ты? где сокращают себе дорогу? В общем, не пренебрегай искать, спрашивать и анализировать, как другие до тебя решали подобные задачи
4. Перед тем, как что-то делать, хотя бы в самой грубой форме, пальцем в небо прикинуть математику / воронку / юнитку / аплифты. Сейчас, когда есть ChatGPT / Claude только ленивый не заберёт готовый ответ по теме, в которой он даже не шарит
5. Разобраться, что такое юнит-экономика и привить себе привычку постоянно её считать в любом сервисе / проекте, которыми занимаешься. Разобраться в методологии А/Б тестирования
6. Очень рекомендую из своего списка рекомендуемой литературы (кстати самый первый пост в блоге) прочитать "Цель", "Эссенциализм" и "High Output Management". Научиться мыслить теорией ограничений, воронками, боттлнеками и рычагами
7. Научиться не делать всё, что можно не делать (говорить "нет" / автоматизировать / делегировать). Избегать fake work, работы-ради-работы, иллюзии продуктивности, созвонов-ради-созвонов
8. Ставить амбициозные цели с точки зрения масштаба и сроков (как советует Илон Маск, чтобы я сам был уверен только на 50%, что мы её достигнем)
9. Всегда держи в голове конечную цель своей деятельности: будь тем каменщиком, которого если спросить "что делаешь?" ответит не "камни таскаю" или "деньги зарабатываю", а "строю дворец". Знать цель и видеть прогресс движения к ней – важный элемент внутренней целостности, которая сама по себе избавляет от синдрома самозванца (понимание к какому результату мы идём и как все наши вложения окупятся)
10. Помнить, что если у меня получилось, у тебя тоже получится
Пишите в комментариях, что бы вы дополнительно включили в список
И спасибо всем кто дочитал ❤️
Немного про iCloud серьезно.
Есть ситуации, когда iCloud начинает "залипать". Это часто бывает, если его перегрузить метадатой (быстро добавить несколько сотен тысяч файлов на iCloud Drive, например). Если в iCloud полезть руками, пользуясь 100500 "полезными" советами из инторнетов и от гпт, который этих советов набрался - можно убить всё окончательно. После чего люди месяцами ходят в поддержку Apple, которая тоже ничего не может сделать, потому что там понабирали по объявлениям, а как что работает знает кучка инженеров в Купертино, которых юзерам не показывают.
MacOS очень не любит, когда пользователь лазит в пропиетарные сервисы. Но к счастью подразумевает, что пользователь дебил и может что-то случайно удалить. Поэтому все сервисы настроены самовосстанавливаться после убивания определенных папок или действий в UI.
Итак, симптомы: медленно синхронизирует, или вообще перестало синхронизировать изменения, или синхронизирует но на облаке появляются дубликаты. Ресет "Drive -> Sync this Mac" не помогает - поздравляю, вы приехали, пора переставить ос/сделать нового юзера/немного поучить матчасть.
Облаком в MacOS занимаются три основных сервиса: cloudd, bird и fileprovider. сloudd - рабочая лошадка, глюки в нем редкие и он нас не интересует. Нас интересует правильная работа bird (iCloud Drive) и fileprovider (эвент-фрейморк файловой системы).
При включении iCloud Drive, bird регистрируется в fileprovider и начинает взаимодействовать с FS. Оба сервиса написаны довольно ентерпрайзненько, с кучей sqlite-баз, токенов и hell'a в ~/Library. fileprovider - не dedicated сервис для iCloud, а общее API для клауд-дисков в MacOS, на нем "сидят" и OneDrive, и Google Drive и все остальные. Соответственно, отключение синхронизации iCloud Drive, очищает базы bird, но базы fileprovider трогает очень осторожно. Если bird не может по каким-то причинам "почистить" свои связи fileprovider - вот и привет.
Соответственно единственное правильное решение проблемы - отключение всех cloud-дисков и ресет fileprovider в консоли. После чего включаем диски назад, смотрим "brctl log -w -s", bird моментально оживает, сливает метадату за 5 минут и качает всё без остановки.
Вчера чтобы немного успокоиться, провел небольшой рисеч с chatgpt. Пользуйтесь.
А как вы справляетесь со сложными эмоциями?
p.s для вдохновения https://arxiv.org/pdf/2507.12213
Первое, что нужно было сделать — это сдампить все посты из канала. Думаете это делается в пару кликов? Тоже так думал. Но обошел несколько раз интерфейсную часть телеграм и не нашел такой возможности. Погуглил, нашел инструкции — все говорят, что это просто, показывают кнопки, иду в телеграм — а этих кнопок нет. Видимо такую возможность выпилили. Печаль.
Подумал — не беда, ChatGPT же теперь умеет ходить в сеть и делать поиск - попробую напрямую из ChatGPT запросить. Тоже не выходит: телеграм закрывается от ботов, хоть через поиск, хоть по прямой ссылке — ChatGPT не может получить содержимое телеграм каналов.
Что ж, пришлось действовать старым "дедовским" способом. Открыл веб-версию канала и пролистал всю ленту, чтобы загрузились все сообщения (там используется подгрузка при скроле). Далее открыл консоль и буквально "на коленке" написал скрипт, который через DOM выбрает все блоки постов, выбрает нужные данные из них, отчищает текст сообщений от лишней разметки и превращает его в markdown. Наконец-то пригодилось знание DOM для чего-то полезного 😏 Код вышел грязным и в лоб – но свою работу делает.
В итоге вышло ~450Kb текста с атрибутами, без изображений и видео. В Word'е в дефолтных настройках (Calibri 12pt) это 166 страниц (58 тысяч слов). Этот текст превращается в ~118 тысяч токенов (OpenAI Tokenizer), что умещается в текущий стандарт для размера окна контекста в 128k токенов и еше немного остается.
Несмотря на размер контекста модели (для GPT-4o — 128k, GPT-4.1 — 1M, GPT-o4-mini — 200k), в интерфейсе ChatGPT нельзя отправлять сообщения более определенной длины. Точных размеров не выяснял, но это где-то около 100Kb (символов, не токенов). То есть скормить текст такого размера как у меня (450Kb) целиком в чат не выйдет, или по крайней мере не одним сообщением.
Хорошо, у нас еще есть возможность прикреплять файлы. Пробуем, но это работает совсем не так как ожидается. Целиком файл не обрабатывется, AI модель так или иначе делает выборки из файла (фрагмент или фрагменты) и работает с выбранным. Для выборок обычно модель пишет Python код. Что попадет в выборку и по какому принципу, тот еще вопрос. Вернее как модель решит. Например, может взять первые несколько килобайт (для чего напишет скрипт), или решит искать по ключевым словам (то есть напишет код, который это делает), при этом поиск строгий и набор слов (количество и состав) — это как повезет. Надежность такого подхода сомнительная. В целом, работа с прикрепленным файлом носит очень приблизительный характер. Может хорошо работать для файлов с данными, типа CSV, так как это лучше поддается детерминированой программной обработке. Но вот для текста (markdown), где большая вариативность — работает так себе. Вероятность успеха (success rate) не нулевая, но чем больше текст тем больше падают шансы.
В общем, для полноценной работы с текстом (например, чтобы не потерялись какие либо факты или детали) весь он должен быть в контекстном окне. Чтобы использовать контексное окно целиком для больших текстов, остается только использовать либо API (в конечном итоге), либо Playground. Плюсы: больше контроля, можно управлять параметрами, например, температурой (насколько рандомизируется результат). Главный минус — стоит отдельных денег, то есть нужно оплачивать входящие/выходящие токены, но цены вполне умеренные.
Делаю ИИшный проект
Недавно писал про то, что решил усмирить свою предприимчивую жилку и сфокуситься на карьере, но на самом деле у меня остался один проект, который уже плавно приближается к тестированию). Пообещал себе, что доведу его до логического завершения, и потом точно возьму паузу. Хотя, кого я обманываю?)
Короче, мы с моим другом-партнёром делаем ИИ-звонилку, если по-простому.
Принцип работы примерно следующий: ты скармливаешь ей базу номеров (ну или просто вбиваешь один номер), а она начинает прозванивать. Промтишь любой контекст: инфу о компании, цель звонка, негативный сценарий и т. д. После звонка подгружается запись и расшифровка с саммари.
Стек под капотом состоит из «мозга» в виде дешёвого аналога ChatGPT, голосовой модели для text-to-voice/voice-to-text в виде аналога ElevenLabs и, наконец, отечественной билайновской IP-телефонии, чтобы вся эта история звонила с российских номеров.
У партнёра свой логистический бизнес, в который первоначально хотим интегрировать нашу ИИ-звонилку: для начала — в помощь операторам, в будущем — встроить её в корпоративную CRM для большей автоматизации и экономии ресурсов.
Сейчас на этапе тестов хотим сфокусироваться на простых и рутинных сценариях — там, где людям приходится делать десятки одинаковых звонков: напоминания, подтверждения, уведомления, сбор обратной связи и т.д.
Если у вас или у ваших знакомых есть бизнес, где нужно много звонить — можем бесплатно подключить вас к тесту (моя личка в описании канала). Поможете нам проверить гипотезы, а взамен получите рабочий инструмент, который реально экономит время и заменяет операторов на рутине.
Кстати можем устроить мини-челленж, пишите в комментарии именно под этой частью свою роль и проект (насколько позволяет NDA), а я или кто-то другой будем предлагать способы оценки экономического эффекта
Предложил в комментариях писать роли / проекты, чтобы получить грубую идею, как оценить свою ценность в деньгах
Доброволец №1: Промт-инженер образовательного интернет-портала для школьников
Как можно оценить в деньгах твою value:
Сценарий 1: если ты генерируешь контент с LLM
• оценка через альтернативы: бизнес мог бы нанять контент-специалистов / младших авторов / методистов и создавать единицы контента вручную. у таких специалистов есть некая ставка в час / в неделю / месяц + скорость производства 1 или 10 единиц контента
• если ты это делаешь в полу-автоматическом режиме, то мы ожидаем, что ты это делаешь быстрее и дешевле в пересчёте на единицу контента (возможно даже для того же объёма контента хватит 1-2 специалистов вместо 4-5 как раньше). скажем, раньше на контент тратилось 30-40% от выручки обучающей программы, сейчас 10%. дельта в 20-30% = твоя вэлью, принесённая платформе
Сценарий 2: если LLM с базой знаний - продукт сам по себе
• важно принять факт, что промпт-инженер отчасти похож на ML инженера: в обоих случаях у нас есть некий черный ящик – "данные+фичи+модель" или "база знаний+промпт+модель". мы можем менять каждую из компонент, пробовать другие модели, подкручивать фичи/промпт, пополнять базу знаний, получая то или иное изменение поведения модели. чтобы действовать не как слепой котёнок в чёрной комнате (и подкручивать промпты чтобы подкручиавать промпты, по интуиции), эту систему нужно покрывать теми или иными метриками: либо оффлайн (например собрать 100 пар запросов-ответов, прописанных экспертом), либо онлайн (метрики пользователей - CSI, NPS, доходимость курса, оценки, ретеншен именно AI-компоненты)
• онлайн метрики в свою очередь влияют на продление подписки (если у вас подписочная модель), на сарафанку (= бесплатные лиды), на бренд (= больше доверия, рост конверсии в оплату), на апсейлы (родителям хочется купить ребенку другие курсы на платформе). Если ты можешь показать, что твоя работа над промптами/базой знаний улучшила хотя бы одну из этих метрик - это и есть твоя value в деньгах
• если ничего из перечисленного не трекается, нужно начать с того, чтобы собирать эти данные, а не заниматься "invisible work", невидимой работой, которая не приносит измеримого результата