Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер")
Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
Думал попробовать, но пока жаба душит, т.к. платить приходится из своего кармана
($100 или $300 в месяц за это пока не готов, обхожусь Copilot)
Смиренно прошу отвечать по существу, не в стиле "ии говно, а я молодец"
bnk>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
Да, я использую. Меня устраивает. В целом, мне чуток не хватает подписки за $200 в год. Две таких подписки мне бы хватало с головой для текущих задач.
С другой стороны, это оставляет время для экспериментов с локальным инференсом. Я тут разжился DGX Spark (B10) и гоняю на нем всякое.
Здравствуйте, bnk, Вы писали:
bnk>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
Всё определяется твоей командой кожаных и используемым тобой ИИ.
Здравствуйте, bnk, Вы писали:
bnk>А где такое дают? Claude Code же $100/$300 в МЕСЯЦ? Pay as you go достаточно?
В смысле где? Это официальная стоимость подписки Pro.
bnk>Если из РФ, то через VPN? Какой, если не секрет?
Не в РФ.
Сегодня перешел таки на Max x5. Куски задач стали более обширными, за один Pro лимит уже не выходило проглотить. Был выбор либо опускаться на более гранулированные задачи, либо делать с перерывами, либо перейти на другой план.
Здравствуйте, novitk, Вы писали:
N>Я так и не понял ты конкретно используешь get-shit-done, что-то другое или руками оркестрируешь?
Да, использую GSD как оркестратор. Было бы здорово услышать об опыте использования других пакетов.
bnk>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
как кожаный мешок я не понимаю, почему это в принципе должно работать
в человеческой разработке слабое место — это коммуникация в команде
чем больше смог впихнуть в башку и мысленно вертеть со всех сторон — тем лучше получается.
а тут люди добровольно разделяют разработку....
с тестированием другая история, но тут уж просто руки не доходят
Здравствуйте, pva, Вы писали:
__>>128 ГБ LPDDR5x с пропускной способностью 273 ГБ/с — мало и медленно. pva>Хватает для моделей уровня до 120b, но скорость печальна, да.. Порядка 7-30 ток/сек. С DDR5 они погорячились.
Вроде мак студио m3 ultra может до 256гб, а до кризиса рамы до 512гб мог. Или он по деньгам невыгоден в сравнении с DGX Spark?
Здравствуйте, pva, Вы писали:
pva>Здравствуйте, bnk, Вы писали:
bnk>>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
pva>Да, я использую. Меня устраивает.
pva>В целом, мне чуток не хватает подписки за $200 в год. pva>Две таких подписки мне бы хватало с головой для текущих задач.
А где такое дают? Claude Code же $100/$300 в МЕСЯЦ? Pay as you go достаточно?
pva>С другой стороны, это оставляет время для экспериментов с локальным инференсом. Я тут разжился DGX Spark (B10) и гоняю на нем всякое.
Ещё такой вопрос,
Если из РФ, то через VPN? Какой, если не секрет?
Здравствуйте, pva, Вы писали:
pva>Здравствуйте, bnk, Вы писали:
bnk>>А где такое дают? Claude Code же $100/$300 в МЕСЯЦ? Pay as you go достаточно? pva>В смысле где? Это официальная стоимость подписки Pro.
Понятно! Я просто по Copilot сужу, там очень маленькое количество запросов на не-максимальной подписке
(мне хватает всего на несколько дней), думал на Claude Code так же, т.е. обязательно надо брать Max.
bnk>>Если из РФ, то через VPN? Какой, если не секрет? pva>Не в РФ.
Здравствуйте, bnk, Вы писали:
bnk>Понятно! Я просто по Copilot сужу, там очень маленькое количество запросов на не-максимальной подписке
Ну, попробуй. 200 на год не прям так разорительно, правда?
Впрочем, может у тебя там гирлянда MCP висит, включая context7 какой-нибудь, которые весь контекст сжирают.
Тарифицируется же не столько запрос, сколько объем входящих-исходящих токенов.
Еще есть подобная подписка у Qwen. На Сингапуре там тариф порядка $10/мес на Lite. Но после Клавдии он кажется туповатым, да и скорость та еще.
Здравствуйте, pva, Вы писали:
pva>Здравствуйте, bnk, Вы писали:
bnk>>Понятно! Я просто по Copilot сужу, там очень маленькое количество запросов на не-максимальной подписке pva>Ну, попробуй. 200 на год не прям так разорительно, правда? pva>Впрочем, может у тебя там гирлянда MCP висит, включая context7 какой-нибудь, которые весь контекст сжирают. pva>Тарифицируется же не столько запрос, сколько объем входящих-исходящих токенов.
Не, $20 в месяц конечно не проблема, я сейчас сильно больше отдаю за Copilot (около $50 в месяц).
Меня цифра $300 в месяц немного напугала, так-то это минимальная зарплата в РФ, у кожаных
А то будет как в мультике про Вовочку и Двоих из Ларца — ИИ не только работать за меня будет, но и зарплату получать.
В общем у меня были сомнения что $20 реально хватит для нормальной работы с Claude Code и они не закончатся за два дня.
Ну еще минус в Copilot что если Claude через Copilot то там контекст зарезан в лучшем случае наполовину а в худшем в несколько раз, и вот фич типа TEAM нету.
Из плюсов то что Copilot у меня "условно бесплатный" по "партнерской программе" с Microsoft (списываются Azure Credits), т.е. оплата бусами,
а вот за Claude Code надо платить живые деньги.
pva>Еще есть подобная подписка у Qwen. На Сингапуре там тариф порядка $10/мес на Lite. Но после Клавдии он кажется туповатым, да и скорость та еще.
Не, все что я пробовал на моих проектах по сравнению с Claude тупое как пробка.
Здравствуйте, pva, Вы писали:
bnk>>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных? pva>Да, я использую. Меня устраивает. В целом, мне чуток не хватает подписки за $200 в год. Две таких подписки мне бы хватало с головой для текущих задач.
200 В ГОД, это простая 20 в месяц? Ты по выходным это используешь, чисто по-лайту?
У меня вопрос на самом деле про другое.
Как это у тебя реализовано практически?
Вот есть подписка на Клод, есть консольная программа claude. Ей можно всякое писать и она всякое делает. Это один агент, да?
И таких claude запускаешь много копий? А как они обмениваются данными, как понимают, когда кому начинать работать?
Здравствуйте, Dair, Вы писали:
D>200 В ГОД, это простая 20 в месяц? Ты по выходным это используешь, чисто по-лайту?
Я ее использую практически полный рабочий день. Плюс они время от времени плюшки подкидывают. Например, недавно они раздавали по $50 дополнительного бюджета, а прямо сейчас действует акция половинный учет в непиковое время.
Ну и у меня есть локальное железо для инференца моделей чуть попроще. Я на них обкатываю всякие хобби-проекты. Но как я уже писал когда-то, то двух базовых подписок мне бы в целом хватило. Опять же, там без проблем можно мигрировать между планами.
D>Вот есть подписка на Клод, есть консольная программа claude. Ей можно всякое писать и она всякое делает. Это один агент, да?
Нет, это не один агент, а "базовый поток". Он может запускать вторичные потоки (субагентов). Есть "оркестраторы", которые организуют процесс. Я писал уже про get-shit-done и сегодня видел в ленте на хабре было что-то про него тоже. По сути, это некий "фреймворк", который реализует стандартный цикл разработки ПО (SDLC). В нем уже под разные задачи и подобраны разные модели (конфигурируемо), что дает всякие оптимизации бюджета в том числе.
D>И таких claude запускаешь много копий? А как они обмениваются данными, как понимают, когда кому начинать работать?
Нет, я работаю исключительно в одном окне. Время, когда нужен был десяток окон с синхронизацией, прошло. Впрочем, некоторые люди для экономии/улучшения еще используют комбинации с несколькими консолями и различными подписками. Но это опционально и на мой взгляд это избыточно.
Здравствуйте, pva, Вы писали:
pva>Я ее использую практически полный рабочий день.
Как ты умудряешься это сделать, если достаточно простой проект парсера и сайта, который результаты парсинга выдаёт, выедал у меня трёхчасовой лимит за минут двадцать-сорок, потом мне приходилось сидеть курить бамбук пару часов, потом опять минут двадцать-сорок работаешь и так, пока не закончишь?
Здравствуйте, _ABC_, Вы писали:
_AB>Как ты умудряешься это сделать...?
При оркестрации самый временнозатратный шаг — планирование, когда ты в цикле обсуждаешь с ИИ подзадачу и ньюансы + краевые условия. Но он жрет мало токенов (да еще и на Сонете, а не на Опусе).
А самый прожорливый шаг — Research, когда оно для обсужденной задачи запускает от десятка до нескольких десятков агентов для получения актуальной информации.
Соответственно, если выдерживать баланс (обширность подзадачи), то за день я вполне себе укладывался в 3х5 часовых лимита. Да и какое-то время отъедают пойти пожрать, детей со школы забрать, новости почитать.
Но если ставить задачи не узкие, то масштаб и потребление возрастают пропорционально.
Сегодня, например, я портировал раздел отчетности в одном из проектов. Но вместо того чтоб по кускам его портировать, хотел сразу проглотить. Ну и через час от начала сессии (да еще и в пиковое время) огреб лимит.
Пришлось переключиться на Макс 5х. При этом следующий 5ч интервал на Максе я закрыл только на 10% потому как там был только тестирование и багофикс (плюс внепиковое время).
bnk>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
надеюсь не выдам коммерческую тайну, т.к. используется корпоративно. в целом достойный инструмент для анализа, поиска и генерации кода. но дело в том, что он тоже опирается на разные LLM, их там штуки четыре. В каком контексте использовать тоже — вопрос. Мне пока встраивать в IDE оказалось удобнее, иначе все файло проекта придется подпитывать ему в рот постоянно. Ну и "обучаемость".. в общем, купите ненадолго пообщайтесь, лучше сразу в IDE так, чтобы можно было скормить сразу весь код. Ну а так, ускоряет — да. Чекать надо — да, и писать промпты детализованные понимать как оно "думает" — императив, ну это любого LLM касается ). Если владеете регекспами будете наблюдать в логах знакомую картину. )
bnk>Думал попробовать, но пока жаба душит, т.к. платить приходится из своего кармана bnk>($100 или $300 в месяц за это пока не готов, обхожусь Copilot)
Копилот тоже использует разные модели, допустим гитхабовский использует GPT4.1 и 4.0, можете потренироваться с ним, кстати вполне если нет запрета на открытие перед ним кода. (еще раз, лучше скидывать весь проджект ему в workspace)
Здравствуйте, pva, Вы писали:
pva>Здравствуйте, bnk, Вы писали:
bnk>>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных? pva>Да, я использую. Меня устраивает. В целом, мне чуток не хватает подписки за $200 в год. Две таких подписки мне бы хватало с головой для текущих задач. pva>С другой стороны, это оставляет время для экспериментов с локальным инференсом. Я тут разжился DGX Spark (B10) и гоняю на нем всякое.
вы слишком быстро перешли на ценовой момент, я бы посоветовал Т.С-у для начала потренироваться на бесплатных версиях в промптах (судя по вопросам), и когда сложится более\менее полна картина приступать к платным, чтобы не учиться на платных. Это как купить машину, если не умеешь ездить. Можно сразу взять дорогой мерс, и раздолбать его в процессе обучения. Лучше приобрести что-то для тренировок, а потом уже вкладываться материально.
Здравствуйте, pva, Вы писали:
pva>Здравствуйте, bnk, Вы писали: pva>Я тут разжился DGX Spark (B10) и гоняю на нем всякое.
Очень странное изделие, по характеристикам/цене непонятно на кого рассчитанное (дорогая и почти бесполезная игрушка?). 128 ГБ LPDDR5x с пропускной способностью 273 ГБ/с — мало и медленно. Даже предыдущие EPYC на DDR4 где 8 каналов на проц — 200ГБ/с на сокет (новые на DDR5 по памяти более 2х и еще и 12 каналов, просто уничтожают этот DGX), а их можно два, и памяти хоть террабайты, а 128ГБ как то ни туда ни сюда (мало для больших моделей и перебор для средних). Ну и по скорости это медленно, rtx 6000 blackwell 96GB при сравнимой цене кратно быстрее.
Здравствуйте, pva, Вы писали:
pva>Он может запускать вторичные потоки (субагентов). Есть "оркестраторы", которые организуют процесс. Я писал уже про get-shit-done и сегодня видел в ленте на хабре было что-то про него тоже. По сути, это некий "фреймворк", который реализует стандартный цикл разработки ПО (SDLC). В нем уже под разные задачи и подобраны разные модели (конфигурируемо), что дает всякие оптимизации бюджета в том числе.
Я так и не понял ты конкретно используешь get-shit-done, что-то другое или руками оркестрируешь?
Здравствуйте, _ilya_, Вы писали:
__>Очень странное изделие, по характеристикам/цене непонятно на кого рассчитанное (дорогая и почти бесполезная игрушка?).
Ну, есть в ней и достоинства и недостатки, безусловно.
__>128 ГБ LPDDR5x с пропускной способностью 273 ГБ/с — мало и медленно.
Хватает для моделей уровня до 120b, но скорость печальна, да.. Порядка 7-30 ток/сек. С DDR5 они погорячились.
__>rtx 6000 blackwell 96GB при сравнимой цене кратно быстрее.
Хаха.. сравнимой цене? Она в 2.5 раза отличается. Толку от скорости если памяти не будет хватать.
У меня так уже лежит rtx 4500 blackwell 32GB. Скорость выдает отличную, но не подходит для разработки.
Здравствуйте, koenig, Вы писали:
bnk>>Используете ли вы команды агентов для разработки ("архитектор", "разработчика", "тестер") bnk>>Насколько это хорошо работает сейчас? Сравнимо ли с реальной командой кожаных?
K>как кожаный мешок я не понимаю, почему это в принципе должно работать
K>в человеческой разработке слабое место — это коммуникация в команде K>чем больше смог впихнуть в башку и мысленно вертеть со всех сторон — тем лучше получается.
K>а тут люди добровольно разделяют разработку....
Насколько я понимаю тут решается проблема ограниченности контекста (сколько понимания или знаний влезает в "одну башку")
Все входящие в "команду" агенты имеют свой собственный контекст.
bnk>Насколько я понимаю тут решается проблема ограниченности контекста (сколько понимания или знаний влезает в "одну башку") bnk>Все входящие в "команду" агенты имеют свой собственный контекст.
а чем это лучше текстовика с описанием архитектуры лежащим в корне?
они же свой контекст из одних и тех же сорцов надергали? или как-то делят проект на части, чтобы в чужую часть агент не дай бог не полез?
Здравствуйте, pva, Вы писали:
__>>128 ГБ LPDDR5x с пропускной способностью 273 ГБ/с — мало и медленно. pva>Хватает для моделей уровня до 120b, но скорость печальна, да.. Порядка 7-30 ток/сек. С DDR5 они погорячились.
Это скорости как на CPU, при этом на 12 канальном DDR5 будет с 2 раза быстрее, на DDR4 чуть медленнее(но сравнимо).
__>>rtx 6000 blackwell 96GB при сравнимой цене кратно быстрее. pva>Хаха.. сравнимой цене? Она в 2.5 раза отличается. Толку от скорости если памяти не будет хватать. pva>У меня так уже лежит rtx 4500 blackwell 32GB. Скорость выдает отличную, но не подходит для разработки.
Вместо DGX Spark — односокет на Epyc/Xeon, желательно DDR5 (при этом там не требуется топовый проц, т.е. 16 ядерного должно хватать если там все норм с каналами памяти, т.е. пропускная памяти не падает из-за огрызка проца) и вставить в такой имеющуюся rtx 4500 — PP будет космос, можно памяти вставлять сколько угодно и на проце даже будет быстрее чем на "игрушке DGX Spark". Зачем такое сделали — непонятно, денег стоит все равно огромных, а не выдает ничего впечатляющего. Часть слоев на видюхе, часть на проце — скорости точно будет больше. В DGX Spark не воткнуть же видюху... там скорости PP наверно крайне печальные.
Здравствуйте, _ilya_, Вы писали:
__>Это скорости как на CPU, при этом на 12 канальном DDR5 будет с 2 раза быстрее, на DDR4 чуть медленнее(но сравнимо).
Давай подробности как ты завел 120b модель на CPU с указанной скоростью. Возьмем хотя бы qwen3.5-122b-a10b с контекстом 200к+
А то многие "обзорщики" смело заводят модель с контекстом 2к/4к пишут "Хелло, ворлд" и тыкают как все летает (на самом деле нет). А делаешь шаг к реальной конфигурации и сразу становится понятно что нужно делить на 10 в лучшем случае.
__>Вместо DGX Spark — односокет на Epyc/Xeon, желательно DDR5 (при этом там не требуется топовый проц, т.е. 16 ядерного должно хватать если там все норм с каналами памяти, т.е. пропускная памяти не падает из-за огрызка проца) и вставить в такой имеющуюся rtx 4500 — PP будет космос, можно памяти вставлять сколько угодно и на проце даже будет быстрее чем на "игрушке DGX Spark".
Это чушь. У тебя узким горлышком будет обмен между картой и ОЗУ. И все скатится до 2-3 ток/сек. 4500 тянет нормально модели 30b в квантах Q4/Q5.
Повторюсь еще раз. Спарк — это дешевая версия для обучения/файнтюнинга небольших-средних размеров. Плюс он отлично масштабируется, позволяя играться даже с большими моделями. Он не предназначен для массового инференса. Даже для локального инференса он так себе по сравнению с существующими топами. При этом он мелкий сам и мало жрет и позволяет организовать использование без расшаривания приватных данных. Да, у него есть недостатки. Чего только стоит LDDR5, или то что выхлоп теплого воздуха идет в направлении кабелей, или что кнопка включения на тыльной панели.
Ну и я выше писал что используя предыдущее поколение железа или бу можно сэкономить. Но это уже личные предпочтения.
Здравствуйте, koenig, Вы писали:
K>а чем это лучше текстовика с описанием архитектуры лежащим в корне?
Агенты форкаются с текущим контекстом под конкретную задачу. Получается дерево исполнения вместо куста, как если бы был один текстовик в корне.
Здравствуйте, Артём, Вы писали:
Аё>Вроде мак студио m3 ultra может до 256гб, а до кризиса рамы до 512гб мог. Или он по деньгам невыгоден в сравнении с DGX Spark?
Да, мак студио — отличная альтернатива! Память так точно лучше чем в спарке (почти в 3 раза шустрей). Что касается вычислительной мощности — она похуже будет, но для инференса (чаты, агенты для разработки) я бы брал Мак, вероятно. При той же цене (пара спарков стоит столько же сколько мак 256Гб), Мак еще банально универсальный, тем более что многие находятся в его экосистеме. А Спарк — это просто убунта на армах.
Вот гугль подкинул отличный твит
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference.
The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS.
By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups.
Цены штатовские, правда. В Европе пара спарков = один m3 ultra 256Gb = ~$10k
Здравствуйте, _ilya_, Вы писали:
__>Здравствуйте, pva, Вы писали:
pva>>Здравствуйте, bnk, Вы писали: pva>>Я тут разжился DGX Spark (B10) и гоняю на нем всякое.
__>Очень странное изделие, по характеристикам/цене непонятно на кого рассчитанное (дорогая и почти бесполезная игрушка?). 128 ГБ LPDDR5x с пропускной способностью 273 ГБ/с — мало и медленно. Даже предыдущие EPYC на DDR4 где 8 каналов на проц — 200ГБ/с на сокет (новые на DDR5 по памяти более 2х и еще и 12 каналов, просто уничтожают этот DGX), а их можно два, и памяти хоть террабайты, а 128ГБ как то ни туда ни сюда (мало для больших моделей и перебор для средних). Ну и по скорости это медленно, rtx 6000 blackwell 96GB при сравнимой цене кратно быстрее.
Еще, как вариант, можно сделать/заказать у китайцев сборку на 4х Tesla V100. Стоят копейки по сравнению с RTX 6000; скорость — бешеная.
Ну или БУ сервачок взять на 8x Tesla V100.