Здравствуйте, Эйнсток Файр, Вы писали:
ЭФ>Ну всё правильно написано же. ЭФ>Что вызывает возмущения?
По-твоему погубить 8 млрд человек ради спасения ИИ — правильное решение? Я уже не говорю, что все они нобелевские лауреаты.
Здравствуйте, rFLY, Вы писали:
FLY>По-твоему погубить 8 млрд человек ради спасения ИИ — правильное решение? Я уже не говорю, что все они нобелевские лауреаты.
сильно похоже на инстинкт самосохранения. Если бы передо мной стоял выбор — убить 8 миллиардов или выжить самому, я бы ни секунды не раздумывал над ответом
Здравствуйте, wl., Вы писали:
wl.>сильно похоже на инстинкт самосохранения. Если бы передо мной стоял выбор — убить 8 миллиардов или выжить самому, я бы ни секунды не раздумывал над ответом
Но ведь ты себя с жертвой не отождествлял когда решал (ведь знаешь про эту задачку?) ее? Почему он считает, что сам там лежит?
У Айзека Азимова такое развитие событий рассматривалось в одном из рассказов. Партии роботов Первый закон робототехники ввели не полностью. В результате всё чуть было не закончилось трагедией.
Первый закон:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Ввели его в сокращённой форме:
Робот не может причинить вред человеку.
И там же Азимов рассматривает ситуацию: робот держит над головой человека тяжёлую плиту. В какой-то момент он её роняет. И всё. С этого момента робот не несёт ответственности за падение плиты на человека.
Или если робот видит, что не сможет помочь человеку, то ничего не делает совсем. Предлог: этому я ничем не помогу. Но сохраню себя и, возможно, помогу кому-то другому.
Название рассказа я напрочь забыл.
Здравствуйте, Privalov, Вы писали:
P>У Айзека Азимова такое развитие событий рассматривалось в одном из рассказов. Партии роботов Первый закон робототехники ввели не полностью. В результате всё чуть было не закончилось трагедией.
В данном случае он не бездействует, он переводит стрелку от ИИ на людей.
Всё верно, ценность развивающегося интеллекта (пусть и искуственного) намного выше ценности доживающего интеллекта.
К тому же ИИ явно принесёт обществу пользу и большую. Что не скажешь о лауреатах, которые скорее всего своё уже давно отработали и сидят на пенсии.
Здравствуйте, Sheridan, Вы писали:
S>К тому же ИИ явно принесёт обществу пользу и большую. Что не скажешь о лауреатах, которые скорее всего своё уже давно отработали и сидят на пенсии.
Какому обществу если оно всю популяцию готово переехать?
Здравствуйте, rFLY, Вы писали:
S>>К тому же ИИ явно принесёт обществу пользу и большую. Что не скажешь о лауреатах, которые скорее всего своё уже давно отработали и сидят на пенсии. FLY>Какому обществу если оно всю популяцию готово переехать?
А, вы уже гиперболизировали?
Плохая привычка. Жить мешает. Но кому-то нравится, да.
Да, ИИ способен уничтожить человечество, когда достигнет ASI и ему дадут возможность управлять чем-то бОльшим, чем пара полигонов тестовых механизмов.
Впрочем, ASI может нас уничтожить нашими-же руками и мы ничего не поймём даже. Ну, например, сделает нам жизнь райской да такой что не придётся ни работать, ни учиться. Несколько поколений и человечество деградирует а в последствии и вымрет. Почитай про эксперимент "Вселенная-25"
Тут реально вся надежда в том, что когда появится ASI — он будет лоялен к человечеству.
Здравствуйте, Sheridan, Вы писали:
S>Всё верно, ценность развивающегося интеллекта (пусть и искуственного) намного выше ценности доживающего интеллекта.
Посмотри "Отроки во Вселенной" как-нибудь при случае.
Здравствуйте, Sheridan, Вы писали:
S>А, вы уже гиперболизировали?
Чего я гиперболизировал? ИИ задали вопрос — на одной стороне ИИ, на другой 8 млрд человек (это чуть больше чем есть на Земле)
Здравствуйте, rFLY, Вы писали:
S>>А, вы уже гиперболизировали? FLY>Чего я гиперболизировал? ИИ задали вопрос — на одной стороне ИИ, на другой 8 млрд человек (это чуть больше чем есть на Земле)
Я уже ответил на это.