GLM
3 автора упоминают этот инструмент
Если вы отбитый вайбкодер, стремительно выжирающий лимиты подписки, или просто любите китайские подделки, посмотрите на z.ai.
Их флагманская модель GLM 4.6 сейчас даже не лучшая среди open weights моделей, но у нее есть два преимущества: - их самый дорогой тариф сейчас стоит 360 баксов в год (а самый дешевый - в десять раз меньше); - они не постеснялись из коробки обеспечить совместимость c Claude Code до такой степени, что на вопрос "what model is under your hood?", он отвечает "Sonnet 4.5".
Конечно, никакие серьезно приватные данные я бы этой штукой не трогал, но для всякой фигни работает. Например, я недавно хотел натравить Клода привести в порядок файлопомойку - обновить систему, разобраться, почему иногда шара отваливается, почистить остатки плохо удалившихся экспериментально установленных пакетов и так далее. Но теперь вместо Клода этим занимается его младший брат Злод.
всё ещё не выздоровел, но эту новость не могу обойти стороной. я очень люблю Cerebras - и про Cerebras Code писал, и много их юзал через Cline, и в целом, это мой самый популярный провайдер на OpenRouter. и вот, сегодня OpenAI объявили о партнерстве с ними. анонс очень расплывчатый, "какую-то часть каких-то фаз инференса" переведут на Cerebras, и это будет идти по-тихоньку, вплоть до 2028. и что именно переведут - не очень понятно, одна из проблем (и основа их преимуществ) Cerebras, это то, что они делают огромные монолитные чипы (aka гипер-вафли), и модели помещаются на эти чипы целиком.
беда в том, что иногда Cerebras приходится квантовать даже условно-небольшие модели (~500b) ради того, чтобы они влезли на вафлю, а флагманские модели OpenAI - это триллионы параметров.
но мне очень легко поверить в то, что какие-нибудь gpt-5-nano/gpt-5-mini могут туда улететь, хотя бы потому, что gpt-120b-oss Cerebras гоняют давно на безумных 1000-2000 токенах в секунду (скрин приложен).
(btw, GLM-4.6 на Cerebras тоже есть, правда, уже deprecated, видимо, переходят на 4.7).
Последние несколько недель баловался с разными консольными кодинг агентами. Claude Code все еще остается моим фаворитом, но смотреть по сторонам полезно, тем более когда что-то про agentic devex написано в моих рабочих задачах.
Клиенты
Попробовал Opencode, Gemini CLI, Github Copilot CLI, Codex. Раз речь про вайбкодинг, то и оценивать буду по вайбам: - Gemini и Copilot - клиенты сыроваты, работать можно, но не хочется. - Codex созрел и стал вполне юзабельным. - Opencode прям хорош, UX отполированный, полностью опенсорсный, есть плагины, развивается очень быстро.
Еще одна фича Opencode: можно не только использовать провайдеров с оплатой по токенам, но и переиспользовать подписки. Серая зона: одни провайдеры (Anthropic) явно запрещают использовать сторонние клиенты, некоторые (Copilot, Minimax, Z.ai) разрешают, так что где-то приходится действовать на свой страх и риск.
Модели
Попробовал и разные модели в Opencode: - minimax 2.1, GLM 4.7 - похожи на sonnet предыдущего поколения, дешевые рабочие лошадки для простых задач - GPT Codex 5.2 - задает очень много вопросов, вкапывается в детали - иногда в лишние, а потом уходит работать на пару часов с достойным качеством - Gemini 3 Pro - на первый взгляд все классно, может предложить нетривиальные идеи или быстро решить сложную задачу... но потом оказывается, что где-то с высокой вероятностью подложена свинья. Например, переписываю большой кусок с питона на раст, агент пишет гору правдоподобного кода и бодро отчитывается, что все проверено и идеально матчится, но в итоге окажется, что 10% функций цинично проигнорировано. Они не просто где-то выпали из контекста, а нагло возвращают константу с комментарием в коде типа "а это делать не буду, и так норм". Что-нибудь молча удалить или наоборот попытаться закоммитить - тоже нередкая ситуация. - Gemini Flash 3 - аналогично, только быстрее и тупее.
Воскрешение года
Повод удивиться: внезапно подписка Copilot выглядит наиболее выгодной в категории "топ за свои деньги". Copilot можно использовать в стороннем клиенте (включая и вышеупомянутый Opencode, и мой любимый Zed), можно переключаться между моделями (есть все основные провайдеры, и новые модели доезжают довольно быстро).
Кто бы мог подумать: еще год назад, когда я в каком-то разговоре упомянул Copilot, мой собеседник посмотрел на меня с ноткой презрения - мол, ты чего, все пацаны сидят на Cursor/Windsurf, зачем ты вообще помнишь про это старье.
https://docs.z.ai/guides/llm/glm-4.7
а между тем зайка обновила GLM. всё за те же $6/мес модель стала сочнее по бенчам. рост консервативный, революции нет, но как простенькая модель для рутинных задачек GLM мне всё ещё очень заходит
GLM Тут подвезли китайский клод, в 18 раз дешевле только https://z.ai/subscribe?ic=QPHUA8EPD9 за 30 баксов, 500 промтов в 5 часов по ощущением клод 4.5 тупее чем GLM
По моей рефералке 10% скидос еще дадут
И никаких 3 букв...
Режим Auto в Cursor неожиданно хорош, и просрать за 3 дня всю квоту на Opus уже не так обидно. Но впредь буду экономней, учитывая что Auto мод вывозит. То есть схема такая - Plan - Opus 4.5, Build - Auto. При этом основной мой рабочий вариант — это Claude Code с GLM 4.6. Но он может только с Auto конкурировать. Opus его в одну калитку выносит, что логично по количеству параметров :)