Perplexity
13 авторов упоминают этот инструмент
я не очень люблю продукты Perplexity (в плане того, что я уверен что все остальные лабы в течении месяца-двух сделают лучше), но это хороший пример того как будет выглядеть та самая "офисная работы" из предыдущего поста к концу года.
Еще одна крутейшая фича в Claude code - автоматическое создание агентов (не имеет ничего общего с субагентами).
хочу сказать что это огонь. есть проблема с некоторым чрезмерным плодением агентов, но зато из коробки работают все хуки/скилы/команды
юзкейс: написание статьи
клод сам придумал какие агенты нужны исходя из финальной задачи. в итоге работало около 10 агентов: - 5 штук на каждую картинку - рерайтер аутлайна - факт-чекер, рисерчер (запустил 5 субагентов с mcp'шками perplexity/parallel) - корректор/редактор стиля (у меня огромный анти-слоп документ для него) - менеджер, который меня успокаивал и говорил что все будет тип-топ
Ключ на скрине нерабочий, не волнуйтесь.
Эксперименты с апишками заставляют отметить, какое сейчас прекрасное время, чтобы пробовать новое.
Открываю Perplexity (я его уже дефолтным поисковиком поставил, хах), открываю Zed. В одном окне копаю информацию, во втором агент собирает прототипы (мы как-то пропустили смерть классического скаффолдинга).
Можно собрать базовый вариант. Можно усложнить. Можно накинуть тестов и запрофилировать. Можно пообсуждать результаты с нейронкой.
Можно двинуться дальше и спроектировать полноценное приложение, чтобы проверить теорию.
Что мы теряем? Да разве что набитую руку на быстрое создание новых проектов. Есть такое (и ведь я сам не пользуюсь алиасами, чтобы пальцы не забывали как отбивать команды). Но, честно, у меня тут ребенок на одной руке висит, второй я варю суп. А желание проверить идею оно же буравит мозг и спать не даёт.
Я думаю, что мы так или иначе будет всё более верхнеуровнево смотреть на код, освобождая место в памяти от сигнатуры функций, в сторону ревью алгоритмов и концепций и теряя скилл вайтбординга. Да так ли это важно? Вот мне в 40+ уже нет, мне важнее быстро концепции проверять и выбирать лучшие. Зато насмотренность в коде как растёт*!
*Я всё ещё не приемлю вайб-кодинг и вычитываю каждую сгенерированную строчку.
🤔 Я больше не доверяю GPT. Куда переезжать?
За последние дни многие люди вокруг задумались, что необходима альтернатива для GPT. Десятки тысяч бизнесов смотрели, как сотрудники уходят из OpenAI и были готовы ко всему. Я провел начало недели за рисерчем доступных решений и решил упаковать результат в пост. Существует два вида решений: 1) сервисы с API над языковыми моделями; 2) поднятие моделей у себя. Сегодня расскажу про первую категорию.
Claude: самая близкая к GPT-4 модель по бенчмаркам, недавно увеличили контекстное окно до 200 тысяч токенов (не совсем эффективных), и добавили function calling как в GPT. В первую очередь я бы начал эксперименты с нее. Из минусов: немного отличается API, промптинг, и также модель напрямую доступна не во всех регионах (зато доступна через Amazon).
Perplexity: в мае я рассказывал про их продукт, как замену Гугла. С тех пор они также запустили API для доступа к их собственной языковой модели, а также Llama2 и Mistral . В анонсе высочайшую скорость инференса среди конкурентов. API работает в формате OpenAI — это значит что переключаться легко. Мне нравится темп их команды и обязательно буду за ними следить. В комментариях поделюсь способом получить бесплатный доступ к Perplexity PRO на 2 месяца — он как раз дает доступ к API и оно пока бесплатное.
Decart: вариант для тех, кто любит потестить сырые стартапы. Они также предлагают API для доступа к моделям — от $0.1 за миллион токенов Llama2 7B. Это самая дешевая цена за инференс, которую я нашел во время рисерча и скорость ответа также порадовала, так что решил про них тоже рассказать. От стартапа есть ощущение, что он в любой момент отвалится, но зато быстро отвечают в твиттере.
Также потестил: Replicate — медленно и по ощущениям, и по бенчамаркам; Anyscale — сложный онбординг, непрозрачная ценовая модель; LiteLLM — библиотека, чтобы приводить разные форматы API к формату OpenAI, чтобы делать бесшовное переключение, показалось удобной.
😲️️️️️️ Когда я начинал рисерч, то не ожидал, что уже есть столько удобных решений на рынке, чтобы эксперементировать с ними. Конечно, они все уступают GPT по качеству, но это не значит, что с ними не нужно учиться работать уже сейчас. Последняя неделя очень ярко показала, как опасен платформенный риски. Нам нужна диверсификация.
Андрей Карпатый: главные тейки с выступления на YC AI Startup School
Software 3.0 Software 1.0 — это код, который мы пишем (Python, C++). Software 2.0 — веса нейросетей, которые мы настраиваем датасетами. Software 3.0 — это промпты на естественном языке. Теперь ваша программа — это промпт.
LLM как новая ОС Мы сейчас в 1960-х годах timesharing-компьютинга: дорогие, централизованные вычисления , к которым мы подключаемся через «тонкие клиенты». Контекстное окно — это RAM, сама LLM — CPU. Революция «персональных компьютеров» для LLM еще не наступила.
«Психология» LLM LLM — это «стохастические симуляторы людей» или «духи людей». У них есть cверхспособности и когнитивные дефициты: галлюцинации, «рваный интеллект», антероградная амнезия и излишняя доверчивость.
Стройте «костюмы Железного человека», а не «роботов» Сейчас время не для полной автономии, а для усиления человека. Пример: Cursor со «слайдером автономии», Perplexity с управлением контекстом и GUI для проверки источников.
Держите AI «на коротком поводке» Главная цель — ускорить цикл генерация-проверка. Не просите AI сгенерировать 1000 строк кода, вы сами станете узким местом при проверке. Давайте небольшие, конкретные задачи, чтобы верификация была быстрой.
Наступает «декада агентов», а не «год агентов» Это будет долгий путь, как с беспилотными автомобилями, массовое внедрение которых до сих пор не наступило. Демо — это когда что-то сработало один раз, продукт — когда работает всегда.
Готовьте инфраструктуру для AI Появился третий потребитель цифровой информации — AI-агент. Поэтому нужно готовить для них почву: документацию с curl-командами вместо «кликните тут» и файлы lms.txt (аналог robots.txt) для сайтов, чтобы агентам было проще с ними взаимодействовать.
https://www.youtube.com/watch?v=LCEmiRjPEtQ
написал новый пост в сабстэке про то, как я использую deep reseerch тулы для бизнес-поиска. это, наверное, самый популярный LLM-сценарий у меня сегодня, который помогает в инвестиционных и GTM-делишках.
в 2023, когда только зарождался deep research, всё сводилось к созданию громоздких RAG-пайплайнов: агент офлайн качал 10-K, блоги, стенограммы подкастов, индексировал всё в vector db и писал промпты для каждого файла. появлялись первые вертикальные стартапы — я смотрел в основном на GTM и invest-tech, но было много интересного и в академических задачах.
схема работы агентов напоминала Directed Acyclic Graph (DAG): всё заранее прописано, один путь без циклов и ветвлений, а решения принимал внешний оркестратор. для простых сценариев «пользователь → запрос → поиск → ответ» это работало.
сегодня deep research-агенты в ChatGPT, Gemini, Perplexity, Grok и др. получили мощный апгрейд благодаря reasoning-моделям. появились Toolformer, ReAct, Tree-of-Thought, Chain-of-Thought и function calling — и агенты превратились в нечто похожее на конечный автомат. они сохраняют состояние (plan/execute/reflect), сами решают, когда делать loop или ветвление, могут retry’ть шаги и корректировать стратегию прямо в сессии.
есть четыре основных building-блока:
planning модель разбивает запрос на подзадачи («какие сайты сканить», «какие PDF парсить», «какие API дернуть») и хранит этот живой plan в контексте диалога, который можно дополнять.
acting через headless-браузер или API агент качает страницы и документы, парсит HTML/PDF, прогоняет текст через LLM-саммари и выдёргивает ключевые поля прямо в json-ячейки или табличные столбцы.
observing агент сверяет промежуточные результаты с целями. если чего-то не хватает, возвращается к planning, меняет стратегию (дополнительные источники, глубина парсинга) и снова идёт в цикл. благодаря reasoning (ReAct, Chain-of-Thought, function calling) модель не просто рубит по сценарию, а реально рассуждает, loop’ит и ветвится. вместо жёсткой цепочки «шаг 1 → шаг 2 → готово» получаем динамичный поток: «спланировал → выполнил поиск и парсинг → оценил результаты → добавил источник → … → готов отчёт». именно эта способность одновременно сохранять контекст, рассуждать и управлять переходами делает deep research-агента таким мощным.
publishing когда все подцели закрыты, агент мёржит фрагменты в финальный отчёт: markdown-таблицы, списки фактов, ссылки на источники и confidence-метрики. отчёт готов к принятию решения.
но 90 % времени я делаю запросы типа «анализ финтех-стартапов из Колумбии для gig-worker’ов» или «поиск AV-компаний и выяснение, какой lidar-сенсор они используют». тут быстро упираешься в лимит компаний и слабое ранжирование: можно шаманить с промптами, но глубина и детерминированность поиска критичны для бизнеса. academic-бенчмарки вроде GAIA или PaperBench хвалят аккуратные резюме научных статей, но они не отражают запросы GTM-команд и инвесторов.
короче про это и написал. плюс для каждой статьи в сабстэке стараюсь зафичерить стартап, который как-то думает в сторону той проблемы, которая у меня возникла.
вместо одного горизонтального подхода Extruct применяет вертикальный AI. каждая компания, сегмент или продукт — самостоятельная «ячейка» в таблице, за которой следит свой агент. так внутри одной ячейки можно сохранять сотни раз больше контекста, гибко добавлять новые поля (стадия раунда, ключевой технический критерий) без перезапуска процесса и выстраивать кастомную логику прямо в planning. чем-то напоминает clay с claygent, только работает субъективно получше и дешевле для не-сейлзов.
так что советую и свою статью и стартап. p.s. если есть по технической части добавить, пишите в коменты.
Эксклюзив получается! Еще ни у кого не видел, делюсь с тобой!
Демо 8 фич ИИ-браузера Comet, которые форсят коллеги из Perplexity: 1. За тебя рыщет в почте и заводит встречи в календаре 2. Накликивает корзину в интернет-магазине. При чем получая на вход рецепт, а не список продуктов. 3. Саммари страниц, видео со страницы (наверное только ютуба всё же) 4. За тебя придумывает и накликивает маршрут в Гугл.Картах (круто!) 5. Естессно, голосовое управление бразуером - навигация, поиск и тд 6. ОЧЕНЬ ПОНРАВИЛОСЬ! Умный поиск по истории браузинга! Наконец-то в ней что-то можно будет найти 7. "Разговор" со страницей - выглядит удобно! 8. Вкладки в качестве контекста для ответа нейросети! В демо показывает как открыл несколько страниц с велосипедами и спросил заказ какого быстрее будет доставлен
Осталось теперь приловчиться этим пользоваться! Пошел пробовать.
Получаем заказы из нейросетей! 🤯 Это вообще реально?
Я коснулся этой истории в январе, когда ресторан моего португальского товарища начал регулярно получать брони столов из ИИ-агентов 🤖 и гостей, узнавших про его винный бар из GPT и Perplexity. А аутрич агентство партнера по паделу стало получать лиды из Gemini-саммари поискового запроса в Google.
И вот за 7 месяцев мы очень глубоко копнули эту тему — с точки зрения технологии ⚙️, требований к контенту и сайту(-ам) 📄, структуры информации, размещаемой в онлайне. И сначала для себя, а потом и для рынка сделали инструмент для отслеживания своего бренда и конкурентов в выдаче нейросетей.
20 августа в 15:00 мск онлайн я проведу онлайн-встречу с моим партнером, Володей Малюгиным — основателем известного SEO-агентства и CEO нашего совместного GEO (Generative Engine Optimization) проекта 🚀 (сколько всяких *ЕО :)) )
Трафик утекает в нейросети, поисковики показывают сгенерированный ИИ-виджет выше, чем результаты поиска. Так вот, GEO — это как SEO, только с нейросетями.
Как всегда, без рекламы, прогревов, сбора воронки, QR-кодов, регистрации и СМС.
Ты узнаешь: • 💡 Почему теперь важны FAQ, списки и базы, а не только «ключевики». • 📌 Получишь 9 конкретных «что делать?». • 🧠 Узнаешь про E-E-A-T (Experience, Expertise, Authority, Trustworthiness) — язык, на котором «сайты» разговаривают с AI. • 🛠 Получишь технические рекомендации, выполнение которых доступно каждому.
И, конечно, будут кейсы 📊 и ответы на вопросы.
📅 Среда, 20 августа, 15:00 Мск, Zoom. Приходи и сотрудников приводи — им же потом всё это воплощать.
🔗 Ссылка на Zoom: https://us02web.zoom.us/j/89321406270?pwd=WPs9eNbqawbHMbhbndMlszuO0X74hc.1
Делаем задорно, живо, без воды, по делу, без домыслов — только собственный опыт. 🔥
как я подхожу к AI SEO
контекст: мы делаем Extruct, deep research агенты для поиска и исследования компаний. не надо быть гением, чтобы понять, что сейчас большую часть ресёрча компаний люди делают в чатботах. "расскажи про компанию X", "кто их конкуренты", "какой у них funding" это всё уже идёт в Claude и ChatGPT, Perplexity.
поэтому логично было подумать, как туда пробиться и забирать траффик отткда. самое простое, что сделал: начал публично выкладывать все data points, которые мы наресёрчили агенты. генерю страницы прямо в Cursor, подключаюсь к БД, делаю постпроцессинг, массово публикую. сейчас порядка 5к страниц под long-tail запросы а-ля lindy funding, s25 batch (вторая позиция после официальной директории btw) или top b2b startups in Spain.
organic search сейчас у нас ~20%. другой вопрос с конвертацией, но top of the funnel это генерит.
теперь думаю, как это усилить. посмотрел штук 20 тулов для AI visibility. паттерн один: topic modeling → генерация промптов → пуш в LLM-чатботы. у меня ощущение, что часть из них просто дёргает API веб-поиска, а не эмулирует реальные пользовательские сессии. а разница есть: API ≠ консьюмерский продукт.
в таком сетапе выглядит не супер полезно. главная проблема: ни один тул не показывает объём запросов по промпту. без этого ты оптимизируешь под фразы, которые никто не вводит. понятно, что это непросто достать даже самим вендорам. а в LLM-поиске long tail ещё тяжелее, уникальных запросов больше, агрегировать клики по ним нельзя.
с другой стороны, я на это смотрю больше как на упражнение по оттачиванию позиционирования. полезно думать, как генерится интент на твой продукт или проблему. это может быть хорошим циклом, который связывает лендинги, копирайтинг и сам продукт особенно если ты ещё до PMF.
если копнуть в теорию, то ни у кого пока нет своего полноценного индекса. это general meta-search wrapper + LLM reasoning. да, есть кроулеры, есть оптимизации с кэшированием и свой re-ranking, но базово весь поиск всё равно лежит на поисковых движках. LLM разбивает твой промпт на 2-5 подзапросов и шлёт их в Google, Bing или Brave. потом ходит по топ-ссылкам, чанкует контент, цитирует то, что релевантно.
пример: запрос "SEO agency NYC" в Perplexity превращается в три отдельных Google-запроса — "seo agencies nyc", "top seo companies new york city", "best seo firms ny".
вся эта возня с visibility идёт от того, как происходит ранжирование внутри RAG.
но базовые принципы SEO никуда не делись. E-E-A-T — доверие к домену, авторитетность автора, бэклинки, директори, отзовики. говорят, что UGC площадки с высокой цитируемостью положительно влияют на AI SEO: Reddit, G2, Capterra, Trustpilot. форумы и отзывы сейчас весят для brand mentions больше, чем в классическом SEO.
что подметил из рисерча: 1. читаемость важна на уровне чанка. в ответ LLM попадают 1-2 чанка, а не весь документ. поэтому у каждой статьи должен быть чёткий TL;DR в начале. 2. каждый inference немного разный. нет детерминированного "ты на 4-м месте по этому запросу" - позиция плавает. 3. онлайн-сигналов (кликов) в RAG-поиске меньше, но есть другой сигнал: какие документы LLM процитировала, а какие проигнорировала. то есть feedback loop дольше, надо это учитывать, когда катишь конетнт. 4. тректинг атрибуции через прямые заходы делать бесполезно. влияние будет заметно только в direct траффике. лучше это распрашивать в онбординге.
что ещё делаю: 1. пишу по 3 поста в день на Reddit с мягким упоминанием бренда. руками, не автоматизирую. 2. смотрю, на что LLM ссылается в web search, это единственный способ понять, под какой контент имеет смысл писать и где пробелы.
честно: серебряной пули нет. это educated guessing плюс базовая SEO-гигиена. большинство AI SEO тулов пока выглядят скорее как агентства, продают ручную работу под видом автоматизации.
кто трекает AI-цитирования в масштабе? если кто-то делает что-то инетерсное в этом домене такое, напишите в личку, с радостью познакомлюсь.
🕹 Пробую делать игру на Godot и Unity: опыт для новичка
Решил попробовать сделать простую игру и заодно сравнить два движка: Godot и Unity. Для гугления использовал бесплатные AI типа Perplexity и DeepSeek, потому что у них нет ограничений по региону, и количеству токенов.
Godot: дружелюбно и по делу
Установка, запуск, первые шаги — всё супер. Не надо никакой IDE, автокомплит из коробки, интерфейс не перегружен. Если цель просто попробовать что-то быстро собрать — это идеальный вариант. Но вот с новой версией (4) справляться сложнее, нейросети вообще живут в прошлом.
Unity: монстр, который требует времени
После Godot переход на Unity ощущается как прыжок с велосипеда на грузовик. Движок кажется монструозным. Без туториалов можно часами кликать по интерфейсу и ничего не добиться. Обязательно нужна сторонняя IDE с настроенным автокомплитом и поддержкой C#, например, Rider или Visual Studio.
И что раздражает: • Запускается долго. Даже на SSD и 32 ГБ DDR5 приходится ждать. • Для простых вещей, вроде кнопки, приходится копаться в куче настроек.
Резюме
Если вы новичок и хотите быстро вкатиться — Godot ваш выбор. Unity лучше для серьёзных проектов, но чтобы освоить его, надо потратить уйму времени и терпения.
Осталось потестить Unreal Engine и понять, где та самая “золотая середина”.
Кстати приступаю к тестированию Comet от Perplexity. Сегодня прилетел инвайт.
Обещают агента, который за меня серфит интернет и выполняет задачи.
AI заменит дизайнеров, 2 года спустя В 2023 писал про AI и как он уже совсем скоро заменит дизайнеров, разработчиков, редакторов и [Add.YourJobTitle].
Замены всё ещё не произошло, но AI активно встроился в нашу жизнь, работу и обучение. Костя Горский делился своим приземлённым виденьем развития искусственного интеллекта в дизайне и оно мне близко. Выглядит вполне реалистично.
Уже много ребят делает крутые вещи, на которые возможно бы не решились без AI инструментов: 🔤Тренажёр неправильных глаголов от Антона Шеина 🔤Финансовый советник от Влада Калашникова 🔤Платформа по изучению чеченского языка от Влада Кургузова 🔤iOS приложение с часами от дизайнера Фигмы Daniel Destefanis
Продолжая прошлый пост, первую историю Дюны я конечно дочитал, а Пол из первой генерации за два года стал старше. Половина моего обучения немецкому построена на смеси GPT и Gemini. C поиском ответов помогает Perplexity. С текстами и письмами — также GPT, а с покупками Rufus.
😋 Расскажите как применяете AI в жизни, работе и обучении
Поздравляю с победой @pahanchik7 и @Dariasssa
Вам улетает бесплатный год Perplexity Pro - считайте 240$ сэкономили!
Приду в личку!)
Очередные счастливчики получают свой год Perplexity Pro по итогам розыгрыша! Внимательно читай посты и тоже сможешь 240 баксов сэкономить)
Бренд, который изменил студию навсегда Давно люблю визуал Perplexity и вот наткнулся в твиттере на Mike Smith, который делал их бренд в студии Smith & Diction.
Бренд нравится как раз тем, что он не неброский и достаточно стильный. Было интересно почитать историю, как его делали. Еще и написано до массового хайпа AI, с примерами старого интерфейса Perplexity и макетами как его улучшить. Я уже думал и не писать этот кейс, потому что не знал, как рассказать о невидимости бренд-дизайна в продукте. Я думал, что люди это не поймут.
Сейчас популярно сокращать статьи с помощью AI, но это пример который стоит почитать самим. Очень напомнило атмосферу старых книг про брендинг и продукты.
▶️ Читать: на русском | English, Medium
Прошлые выходные я решил протестировать новую фичу от Perplexity - Computer. Это когда они подняли за вас Claude Code или что-то подобное в виртуальном компьютере. В общем опыт похожий по ощущению на магию для опытных пользователей Claude Code, когда нейронка может докодить себе кусок чтобы решить задачу.
Наверное, это снижает барьер входа в чудеса, но по мне, конечно, perplexity не стоит своих денег, лучше выделить время и научится работать с Claude Code/Codex напрямую. Там даже дело не в стоймости подписки, а в очень маленьких лимитах, они очень жесткие, реально жесткие в сравнении с Claude Code/Codex.
Но поделится мне хочется тем самым Wow-моментом, которого как вижу по опросам у многих еще не случилось.
Сейчас twitter (нынешний X) пестрит такими постами: Платный софт больше не нужен, что мол вот собрал себе на Perplexity Сomputer - полную копию Bloomberg Terminal (это топовый софт для инвесторов/трейдеров от 30к$/год) gif-ку прилагаю. Мы как люди бывалые, конечно же помним, что в интернете полезной информации почти нет, и скорее всего это чья-то реклама. Но почему бы и не проверить?
В общем я запустил несколько паралельно агентов кодить терминал в Perpleity Computer, вначала получалось очень плохо, очевидный тезис который не нужно доказывать, но без ТЗ - в формате - эй Ai заработай мне денег, сделай мне bloomber terminal - ничего не вышло. Тогда я запустил хуйлион дип-рисечей, парочку через claw-bot с браузером чтоб собрать скриншоты из видео для описания интерфейса, и получилось 158 страничное ТЗ (приложу к посту если вам вдруг нужно поиграться)
Затем я запустил несколько паралельных агентов, чтобы сделать по нему копию bloomberg terminal. И вот спустя каких-то всего лишь 5 дней (справделивости ради скажу что я не кодил это 5 дней, я лишь тыкал бота в перплексити палкой, задавал правильные вопросы, и принимал работу) получилось хоть что-то немного приличное, но лишь внешне напоминающее пару экранов в bloomberg terminal.
Насладиться можно тут: https://www.perplexity.ai/computer/a/bloomberg-terminal-v3c5_QvdRUOulHIshdW8Qw
(ожидаемый) Итог эксперимента: • Saas (софт), как вид бизнеса, не так-то легко и убить, потому что это не только интерфейс, но и данные, знания о пользователях, микро-моментики которые просто так не скопировать, организация процесса, ворклфоу, дата стримы, и еще миллион вещей • даже изучив продукт вдоль и поперек, и ставя цель просто скопировать интерфейс, даже очень умным и настойчивым multi-one-shot тут не обойтись, надо учиться выстраивать процесс, пайплайны, плагины, инфраструктуру, ставить задачи и измерять результаты, а там дальше еще и продажи, юридичка, монетизация • и все равно это круто, что вот так из нейронок и палок, можно собрать работающий прототип чего угодно за пару дней, и еще круче что это сталкивает с реальностью еще быстрее, что нужна не только идея и продукт, но и куча штук вокруг этого, но красота в том, что обратная связь быстрее, учишься быстрее, понимаешь что важно, а что нет тоже быстрее • инвестиции в знания, как пользоваться современными AI системами пожалуй бесценны, сейчас это уже сильно больше, чем чатик с GPT, это может быть целая команда личных ассистентов, маркетологов, разработчиков, но только при правильно выстроенном процессе, и если знать что делать. И в этом так много отржения внутреннего мира, если внутри беспорядок, то и с агентами будет тоже хаос. Наводя порядок с агентами, как-то оно там и внутри тоже раскладываться по местам.
А вы видели что у Google тоже появился AI Mode?
Я некотрое время пользуюсь Comet (от Preplexity) как поиском. Прочувствовать его на вкус.
Если вы ещё нет, то пора бы уже да.
Это график роста пользователей из AI в Flowmapp.
— Начали с 20 посещений в сутки — Сейчас аппетиты выросли до следующей цели в 4,000 юзеров в месяц.
Основные AI-источники: ChatGPT, Gemini, Perplexity + суммарно все обертки.
(кстати, не все знают, что 100% протрекать трафик из AI-чатов невозможно как минимум по 3-м причинам)
Паттерны поиска и принятия решений пользователями изменятся навсегда.
И это уже началось.
Спасибо, Илон Маск! Свежайший Grok4 уже в Perplexity Pro! UPD: Розыгрыш в посте!
Вот как эта нейронка проходит тесты Artificial Analysis:
1️⃣ Индекс интеллекта: 73 балла (выше o3 и Gemini 2.5 Pro — по 70 баллов) 2️⃣ GPQA Diamond: рекордные 88% (предыдущий рекорд Gemini 2.5 Pro — 84%) 3️⃣ Humanity's Last Exam: 24% (против 21% у Gemini 2.5 Pro) 4️⃣ Скорость: 75 токенов/сек 5️⃣ Контекст: 256K токенов через API (меньше, чем у Gemini =1M, но больше, чем у Claude и Openai o3 = 200k)
Разбираться в сути тестов не обязательно, но можно легко увидеть уровень Grok по сравнению с другими флагманами!
Кто участвовал и побеждал в розыгрышах тут на канале уже точно может пробовать))
------------- АААААА , черт побери! В понедельник разыграю еще 2 годовых подписки на Perplexity Pro между всеми кто отправит умника 🤓 в комментарий к этому сообщению!!! Не реакцию, а в комментарий! Реакции анонимны)
🔍 Как улучшить поиск в интернете в 10 раз? (заменяем Гугл и ChatGPT)
Продакт-менеджеры знают, как сложно пересадить пользователя с привычного решения на новое. Считается, что для этого нужно сделать 10х продукт по сравнению со старым. Тем не менее, я стал использовать гугл-поиск на 90% меньше с декабря прошлого года. Оказалось, что формулировать вопросы в свободном формате и получать ответы текстом намного удобнее, чем исследовать поисковую выдачу.
🕸 В первом релизе ChatGPT классно закрыл сценарии работы с информацией, для которой не нужна актуальность и достаточно свежести конца 2021 года. А с появлением плагинов и веб-браузинга чат начал закрывать и сценарии, где требуется свежая информация. Неудивительно, что внутри Гугла все последние месяцы бьют тревогу — уже перестроили стратегию, структуру компании и развивают свой Bard.
🌐 Как я уже писал, веб-браузинг в ChatGPT плохо, но к счастью есть решение. В этом нам поможет продукт Perplexity. Это полноценный поиск с встроенным GPT-4 и классным дизайном. На днях они релизнули режим Copilot: теперь можно задать даже абстрактный вопрос вроде «какие есть интересные события в июне в Белграде» или «собери мне план курса по Langchain». Копайлот задаст в ответ уточняющие вопросы и в итоге распишет ответ с ссылками на актуальные сайты-источники. После этого можно продолжить общение в чате и уточнить свой запрос.
🤖 Обычный поиск там работает без регистрации, а для режима копайлота нужно будет авторизоваться через гугл. Также удобно, что результат можно зашарить с другими — вот к примеру результаты моего запроса про курс по Лангчейну. Рекомендую начать пробовать для сценариев, в которых вы бы хотели использовать ChatGPT, но требуется актуальная информация.
🔮 Всё это натолкнуло меня на мысли про будущее контент-маркетинга и SEO. Давайте соберем здесь 30 реакций и я сделаю про это отдельный пост.
@prod1337