Здравствуйте, Vzhyk2, Вы писали:
V>При взгляде со стороны, пользователя "рассуждения" дипсика похожи на следующее:
У него сейчас нет агентов. Его рассуждения — это костыль, который пытается эмулировать рассуждения, дополняя системный промт. Грубо говоря, он "разговаривает" сам с собой с помощью символов, а не мыслей. Эта беседа в виде простого текста добавляется к системному промту и делается обычный вывод обычной модели. То есть у нас есть эмуляция.
У Дипсика есть MoE или несколько экспертов, когда для ответа активируется один или несколько. Они не спорят друг с другом, а просто выбирают, кто из них ответит.
Настоящая мультиагентность — это когда две разные модели (или одинаковые, но с разными промтами) по настоящему обмениваются друг с другом информацией. Например, два Дипсика.
Рассуждения, которые сейчас развивают, могут включать в себя две разные модели: одна выдвигает гипотезы, а другая оценивает. Или их обучают строить именно что логические цепочки по типу того, как работает Пролог. Но в массовых моделях, насколько я знаю, такого пока нет.