Cline
2 автора упоминают этот инструмент
всё ещё не выздоровел, но эту новость не могу обойти стороной. я очень люблю Cerebras - и про Cerebras Code писал, и много их юзал через Cline, и в целом, это мой самый популярный провайдер на OpenRouter. и вот, сегодня OpenAI объявили о партнерстве с ними. анонс очень расплывчатый, "какую-то часть каких-то фаз инференса" переведут на Cerebras, и это будет идти по-тихоньку, вплоть до 2028. и что именно переведут - не очень понятно, одна из проблем (и основа их преимуществ) Cerebras, это то, что они делают огромные монолитные чипы (aka гипер-вафли), и модели помещаются на эти чипы целиком.
беда в том, что иногда Cerebras приходится квантовать даже условно-небольшие модели (~500b) ради того, чтобы они влезли на вафлю, а флагманские модели OpenAI - это триллионы параметров.
но мне очень легко поверить в то, что какие-нибудь gpt-5-nano/gpt-5-mini могут туда улететь, хотя бы потому, что gpt-120b-oss Cerebras гоняют давно на безумных 1000-2000 токенах в секунду (скрин приложен).
(btw, GLM-4.6 на Cerebras тоже есть, правда, уже deprecated, видимо, переходят на 4.7).
Сидел с утра собирал memory bank в Roo. Потрясающая штука, даже если им не пользоваться (а почему?), но просто почитать — вот он твой проект как на ладони. Но, конечно, нужно покопаться в нём вместе с нейронкой, направить её в правильную сторону.
Это, кстати, причина, почему roo, а не cline. В cline всё как-то победнее (ну это просто связано с меньшим количеством режимов работы агента).
Если кратко, то memory bank это просто папочка со структурированным описанием вашего проекта, на которую вы натравливаете агента через промт (не вручную конечно же, агенты умеют подмешивать промты из конфига).
UPD: Ну и это конечно уже вчерашний день, потому что теперь есть Context Portal MCP 😃 С RAG конечно же.
Все побежали и мы побежали
Ну как, выбор между Roo и Cline сделали? На Claude, небось? Мемори банки собрали? В своей продукт добавили агента? А моделька в продукте у вас какая — Qwen или DeepSeek? Как так нет локальной модели, а куда вы будете грузить пользовательские данные? А как тюнили под задачи, RAG? А MCP-сервер уже запилили? В опенсорс его закинули?
Что ж так быстро-то всё меняется, выдохнуть некогда. Архитектуркой бы позаниматься, долги позакрывать. Но некогда. Рынок требует AI. Надо пережить эту волну, но кто бы знал, какая будет следующая.