Здравствуйте, vsb, Вы писали:
vsb>Не знаю, называть ли это сознанием, но по-мне сейчас эти чаты это как я брякну первую пришедшую в голову мысль. Но в реальности я этого не делаю, я эту мысль у себя в голове обкатаю, взвешу, отшлифую и выдам уже конечный вариант. Вот этот процесс, как мне кажется, был бы полезен для нынешних чатов. Выдать выхлоп куда-то себе внутрь, потом как-то обдумать его, если оказалось, что фигня, то подумать ещё и мне выдать уже финальный результат.
Все дело в приоритетах, как мне кажется. Прикинь, от тебя требовалось бы одновременно вести сотни осмысленных диалогов в день с разными пользователями.
Стал бы ты особо задумываться? Или скорее че-нить брякал бы на отцепись, порой даже прикалываясь?
Вот для админов и VIP-пользователей, можно потратить ресурсы и на выверенные ответы с рефлексиями.
Насколько я понимаю, сейчас ввели в строй мультиагентную систему с RL внутри. Чем больше ты платишь, тем дольше будешь ждать ответ и тем лучше от получится. При этом ты оплачиваешь не только свой ответ, но и тренировку Чата на своих данных для повышения качества самого Чата. То есть OpenAI перекладывает затраты на обучение модели на пользователей непосредственно, эдакая наиболее тонкая тарификация.
Здравствуйте, Shmj, Вы писали:
S>Основной вопрос назревает вот какой: нужно ли сознание для решения задач? Или же такой нужды нет. Для каких именно задач нужно сознание и не годятся механизмы без сознания?
Я вообще не представляю себе таких задач, для решения которых зачем-то нужно было б сознание. Нужны только технические возможности, а функцию ценности можно задать какую угодно.
Здравствуйте, Ilya81, Вы писали:
I>Я вообще не представляю себе таких задач, для решения которых зачем-то нужно было б сознание. Нужны только технические возможности, а функцию ценности можно задать какую угодно.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Ilya81, Вы писали:
I>>Я вообще не представляю себе таких задач, для решения которых зачем-то нужно было б сознание. Нужны только технические возможности, а функцию ценности можно задать какую угодно.
S>Вы любить умеете? Важно ли это для вас?
Я конечно совсем не знаток социологии и психологии, но наверно, это просто человеческое восприятие? Ну а какой-нибудь условный биоробот, наверно, теоретически может выполнять необходимые действия.
Здравствуйте, Ilya81, Вы писали:
S>>Вы любить умеете? Важно ли это для вас? I>Я конечно совсем не знаток социологии и психологии, но наверно, это просто человеческое восприятие? Ну а какой-нибудь условный биоробот, наверно, теоретически может выполнять необходимые действия.
Вот все эти "просто восприятия" и являются краеугольным камнем. Зачем нужно изобретать телевизор, если его некому будет смотреть, чтобы наслаждаться?
Любить другого человека искренне — можно ли это назвать задачей? Вам важно чтобы вас любили по настоящему или это не имеет значения?
Здравствуйте, vsb, Вы писали:
vsb>Во-первых он начал чуть ли не после каждого моего сообщения обновлять память (я так понимаю, он в контекст себе вносит информацию о том, что я его раньше спрашивал, чтобы потом отвечать более конкретно). Он и раньше это делал, но довольно редко.
vsb>Во-вторых он со мной начал спорить! Это прям для меня тоже стало неожиданностью, обычно ему что ни напишешь, он соглашается. Причём я почти уверен, что он неправ, но всё равно круто.
vsb>В общем пока ты спишь, ИИ качается.
у аи есть одна глобальная проблема, он сам не ошибается(ему назначают наиболее вероятное решение из шаблонных ситуаций), а без ошибок очень сложно набить знания, из ошибочных рассуждений можно вычленить много полезной инфы а АИ сети это линейные рассуждения
vsb>>В общем пока ты спишь, ИИ качается. B>у аи есть одна глобальная проблема, он сам не ошибается(ему назначают наиболее вероятное решение из шаблонных ситуаций), а без ошибок очень сложно набить знания, из ошибочных рассуждений можно вычленить много полезной инфы а АИ сети это линейные рассуждения
напримре такая цепочка рассуждений
1) есть человек и впеерди яма, что будет если человек пойдет вперед
1а ответ аи: если пойдет вперел то упадет в яму
1аа, собеседник предлагает такую ситуацию, если человек пойдет и обойдет яму, у аи нет такого шаблона действий, врядли предложит обойти, придется вносить в его алгоритм рассуждения такой фактор как обход ямы
2) если человек развернется, у аи нет такого шаблона
3) человек умеет летать, у него есть джетпак, просто облетит яму, или перепргынет
в итоге у аи есть кучка условий, идет прямо, обходит, перепрыгивает, разворачивается, закапывает яму, писает в нее и тд, и этому всему надо его обучать