Попросил AI сделать ревью кода, проверить консистентность имен, типов, параметров, возвращаемых значений, итд
С одной стороны, он накидал мне годных идей, которые я почему то пропустил
С другой стороны, дает рекоммендации такие
refile — переименовать в predicae, т.к. Common schema term for narrowing via user predicate.; unambiguous.
predicate — переименовать в refine, т.к. Common schema term for narrowing via user predicate.; unambiguous.
и так везде — сколько бы я его ни спрашивал, он будет "недоволен". Т.е. "вот уже хорошо, достаточно" — такого нет. То есть, выдать то может, но если спросить еще раз, выдаст, что всё неправильно и надо переписать.
Если я спрашиваю одно и то же, достаточно долго, внося периодически правки, то этот процесс может оказаться бесконечным
Здравствуйте, Pauel, Вы писали:
P>Если я спрашиваю одно и то же, достаточно долго, внося периодически правки, то этот процесс может оказаться бесконечным
Это проблема — да. Есть методы решения, но они в массовые продукты пока не внедрены.
Возможное решение — использование второго ИИ, который будет анализировать решения первого и говорить, что на этом его полномочия всё, окончены.
Здравствуйте, Pauel, Вы писали:
P>Если я спрашиваю одно и то же, достаточно долго, внося периодически правки, то этот процесс может оказаться бесконечным
Всё правильно. Это предел современных моделей.
Но, ты же человек и понимаешь, какие его рекомендации корректные, какие нет. Используй только корректные.
И согласись, в силу особенностей мозга ты бы не заметил кучи нюансов, на которые он указал. В этом и плюс от примения его.
Здравствуйте, Nuzhny, Вы писали:
N>Возможное решение — использование второго ИИ, который будет анализировать решения первого и говорить, что на этом его полномочия всё, окончены.
Зациклятся в лучшем случае. В худшем начнут бредить из-за наличия положительной обратной связи. Тебе нужно придумать, как сделать отрицательную обратную связь, чтобы они пришли к некоему локальному минимуму (возможно правильному решению).
У дипсика, по его "рассуждениям" видно, что пытаются сделать, но пока получается плохо.
Здравствуйте, Vzhyk2, Вы писали:
V>Зациклятся в лучшем случае.
Не, в лучшем случае будет работать, всё зависит от правильного промта.
V>В худшем начнут бредить из-за наличия положительной обратной связи. Тебе нужно придумать, как сделать отрицательную обратную связь, чтобы они пришли к некоему локальному минимуму (возможно правильному решению).
Или не будут, потому что мультиагентные системы уже есть и они работают. Значит, всё возможно.
Здравствуйте, Nuzhny, Вы писали:
V>>В худшем начнут бредить из-за наличия положительной обратной связи. Тебе нужно придумать, как сделать отрицательную обратную связь, чтобы они пришли к некоему локальному минимуму (возможно правильному решению). V>>У дипсика, по его "рассуждениям" видно, что пытаются сделать, но пока получается плохо. N>Или не будут, потому что мультиагентные системы уже есть и они работают. Значит, всё возможно.
У дипсика, по его "рассуждениям" видно, что пытаются сделать, но пока получается плохо.
Здравствуйте, Nuzhny, Вы писали:
N>Это проблема — да. Есть методы решения, но они в массовые продукты пока не внедрены. N>Возможное решение — использование второго ИИ, который будет анализировать решения первого и говорить, что на этом его полномочия всё, окончены.
Мне вот кажется, что вот такая пара, из генерирующего и контролирующего ИИ, отдаленно напоминает мышление у человека.
Здравствуйте, Vzhyk2, Вы писали:
V>У дипсика, по его "рассуждениям" видно, что пытаются сделать, но пока получается плохо.
Кстати, еще заметил трабл у этих мультиагентных систем. Как только оно заползает в некий локальный минимум, то выгнать его оттуда получается очень и очень сложно.
Фактически нужно стирать весь контекст и начинать заново с поиском другого локального минимума, т.е. брать на себя формирование нового контекста.
В итоге, как помощник, что за тебя прошерстит быстро интернет (с учетом 3-5 летней давности) и найдет много разного, прочитает какую большую доку и ужмет он очень неплох.
Для чего посложнее совсем плохо у этих систем получается.
Вот в примере от Паши, эти системы великолепны прошерстить большой проект и поискать траблы, которые ты не замечаешь. Он найдет и большую часть траблов и еще набредит.
А дальше ты сам уже разбираешь то, что он нашел и фиксишь где реально трабл и игнорируешь, где он набредил. Т.е. отлично берет на себя механическую часть работы на внимание.
Здравствуйте, Pauel, Вы писали:
P>Мне вот кажется, что вот такая пара, из генерирующего и контролирующего ИИ, отдаленно напоминает мышление у человека.
Собственно нейронки и придумывались, как некий сильно упрощенный аналог взаимодействия нейронов.
Здравствуйте, Pauel, Вы писали:
P>Мне вот кажется, что вот такая пара, из генерирующего и контролирующего ИИ, отдаленно напоминает мышление у человека.
Примерно так и есть. Я уже выкладывал ссылку на HRM, в эту сторону наука тоже двигается и весьма успешно.
Здравствуйте, Vzhyk2, Вы писали:
V>>У дипсика, по его "рассуждениям" видно, что пытаются сделать, но пока получается плохо. V>Кстати, еще заметил трабл у этих мультиагентных систем.
Ты точно не путаешь понятие MoE (mixture of experts) и мультиагентность?
Здравствуйте, Nuzhny, Вы писали:
N>Ты точно не путаешь понятие MoE (mixture of experts) и мультиагентность?
Я не очень в курсе терминологии в этой теме и нюансов. Я просто со стороны вижу траблы (и вижу на что они похожи) и вижу, что пока они не решаются легко (экстенсивным методом).
Возможно в ближайшие 5-10 лет кто-то найдет путь, как разрешить их.
Здравствуйте, Nuzhny, Вы писали:
N>То, что есть в индустрии сейчас — это костыль, а не настоящие рассуждения. Да, он отчасти работает, но только отчасти.
Тут главный вопрос "что есть настоящее рассуждение?". Я не знаю ответа на него. Пока предполагаю, что то, что пытаются сделать и есть "рассуждения, похожие на человеческие".
Уточню. Ты хочешь сказать, что сейчас есть два основных подхода:
1. Два "агента" конкурируют. Один предлагает, второй критикует.
2. Толпа агентов пытается "рассуждать".
При взгляде со стороны, пользователя "рассуждения" дипсика похожи на следующее:
1. "Агенты" накидывают разного, что как-то связаны с запросом.
2. Дальше идет, что-то похожее на "анализ" с выявлением "общего", "разного", "противоречивого"
3. Затем идет "синтез" по "общему" и "непротиворечивому". Остальное откидывается.
Много раз наблюдал, когда в "рассуждении" есть правильное решение, но оно откидывается и выдается неправильное.
Здравствуйте, Vzhyk2, Вы писали:
V>При взгляде со стороны, пользователя "рассуждения" дипсика похожи на следующее:
У него сейчас нет агентов. Его рассуждения — это костыль, который пытается эмулировать рассуждения, дополняя системный промт. Грубо говоря, он "разговаривает" сам с собой с помощью символов, а не мыслей. Эта беседа в виде простого текста добавляется к системному промту и делается обычный вывод обычной модели. То есть у нас есть эмуляция.
У Дипсика есть MoE или несколько экспертов, когда для ответа активируется один или несколько. Они не спорят друг с другом, а просто выбирают, кто из них ответит.
Настоящая мультиагентность — это когда две разные модели (или одинаковые, но с разными промтами) по настоящему обмениваются друг с другом информацией. Например, два Дипсика.
Рассуждения, которые сейчас развивают, могут включать в себя две разные модели: одна выдвигает гипотезы, а другая оценивает. Или их обучают строить именно что логические цепочки по типу того, как работает Пролог. Но в массовых моделях, насколько я знаю, такого пока нет.
Здравствуйте, Vzhyk2, Вы писали:
N>>То, что есть в индустрии сейчас — это костыль, а не настоящие рассуждения. Да, он отчасти работает, но только отчасти. V>Тут главный вопрос "что есть настоящее рассуждение?". Я не знаю ответа на него. Пока предполагаю, что то, что пытаются сделать и есть "рассуждения, похожие на человеческие".
LLM не хватает рациональности рассуждений. Они пытаются прикрутить новые подходы, для этого нужна другая архитектура.
Прокачивать это придется на математике и ЯП. Главное — как это интегрировать с тем, что уже есть, оно тоже нужно.
Для рациональных рассуждений главное необходимое условие — отсутствие ошибок.
DeepSeek подтверждает:
Сравнение рациональных рассуждений с интуитивными образными(или как назвать эту противоположность?). Можно ли сказать, что одна из основных особенностей рациональных рассуждений — это отношение к ошибкам, недопущение ошибок или сведение к минимуму?
Кусочки ответа:
...
Отношение к ошибкам — это не просто одна из особенностей, а фундаментальный, системообразующий принцип рационального мышления.
...
Рациональный процесс сконструирован для выявления и устранения ошибок
...
Сама структура рационального рассуждения содержит проверочные механизмы
...
Ошибка — это "зло": В рациональной парадигме ошибка — это фундаментальный порок, который обесценивает результат. Она свидетельствует о flaw (изъяне) в процессе.
...
интуитивный подход не "допускает ошибки", а просто работает в другой парадигме — где ценность скорости и целостности важнее пошаговой точности.
...
Стремление к недопущению ошибок и их систематическому устранению является краеугольным камнем рационального рассуждения. Это его определяющая особенность, которая отличает его от интуитивного подхода, где ошибки не только допускаются как компромисс, но и могут быть творчески преобразованы.
...