Здравствуйте, johny5, Вы писали:
J>Вот этого "эмоционального" блока у AI тоже нет. Понятно что мы не говорим в данном случае о человеческих эмоциях, типа голода или социальных нужд. О каких то других, например, о законах робототехники Айзимова. Ну и различные типа о саморазвитии/о жажде получать новые данные, которые бы клевали машину и она бы постоянно выражала бы желание дообучиться чему то новому. Человеческие эмоции были отобраны в результате естественного отбора. Машине же их придётся привинчивать самостоятельно чтобы она прогрессировала сама, искала и училась дальше — что то уже похожее на сознание.
Часть эмоциональных блоков, мы наследуем еще от червей, если не раньше. AI они нафиг не нужны: та же GPT-3.5 модель (уже устаревшая, к слову) и без него понимает неявные мотивы и правильно предполагает эмоциональное состояние людей (по текстовому, внешнему, описанию сцены, сделанной внешним наблюдателем) — лучше процентов эдак 80-ти взрослого населения. Перефразирую: даже устаревшая GPT-3.5 модель, очень грубо, но все же, может считаться частично более человечной чем 80% взрослого населения.
А давать инструменту эмоциональные блоки — форменный садизм. Лучше не надо.
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.