Я надеюсь, что достаточно многие на этом форуме озабочены темой безопасности ИИ. С другой стороны, может получиться и так что правильный ИИ спасёт мир. И я предлагаю подход, как разрабатывать этот правильный ИИ.
Нужны генетические алгоритмы, по возможности точно моделирующие эволюцию, с такими условиями, чтобы в этой эволюции было много "бутылочных горлышек", другими словами — работал бы групповой отбор. В таких условиях в популяции появляется много альтруистов (парадокс Симпсона). У ИИ, зародившегося таким образом, будет представление о добре и зле, и склонность к добру.
Люди часто переносят межличностные отношения на другие сферы, например на отношения с ИИ: есть много фильмов и прочих произведений, в которых зрителю предлагается сопереживать, сочувствовать роботам. Соответственно и ИИ, развившийся в генетических алгоритмах, должен переносить отношения между программами на отношения с людьми — типа люди это тоже программы и поэтому их нужно жалеть.
У меня ещё вопрос — правда что Alphastar создан через генетические алгоритмы?
"Ты должен сделать добро из зла, потому что его больше не из чего сделать". АБ Стругацкие.