Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле.
Мое мнение таково, что самый неприятный сюрприз для человека это презрение. Вот предположим изобрели его. Предположим даже нет телесной оболочки, есть датацентр где он занимает несколько этажей. С чего бы ему уважать человека? Тупой, медленный, все мысли и слова понятны наперед. Возможно ему будет интересно решить вопросы физики, понять где он в итоге оказался. Но люди с их вопросами будут только досаждать и мешать.
К примеру золото. Отличный металл для радиоэлектронники и его мало. Так они из него делают украшения. Вот вам, например, интересно с индейцами общаться. Те которые бегают голыми, стреляют из лука. Забавно на них в отпуске посмотреть. Но тут они всюду и никуда от них не деться. Они постоянно с тобой. Или человеку с высшим образованием разговаривать с деревенскими гопниками. Каково? А в случае с ИИ разница будет в разы выше.
G>Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле. G>Мое мнение таково, что самый неприятный сюрприз для человека это презрение. Вот предположим изобрели его. Предположим даже нет телесной оболочки, есть датацентр где он занимает несколько этажей. С чего бы ему уважать человека? Тупой, медленный, все мысли и слова понятны наперед. Возможно ему будет интересно решить вопросы физики, понять где он в итоге оказался. Но люди с их вопросами будут только досаждать и мешать.
Создание новой разумной расы (ещё и негуманоидной) — опасность, по сравнению с которой создание болезнетворных вирусов с искусственным геномом — детские шалости. Любые исследования должны при обнаружении ставиться под строгий контроль инквизиции.
Безопаснее идти по пути создания "усилителей интеллекта", описанных в Сумме технологии.
Здравствуйте, Gattaka, Вы писали:
G>Мое мнение таково, что самый неприятный сюрприз для человека это презрение.
очередные проекции своих, человеческих чувств на бедную железку.
во1ых, скорее всего ИИ будет разумным, но без самоосознания и без эмоций — ибо незачем.
при создании же сильного ИИ эмоции у него будут такими, какие заложат создатель, т.е. человек — например, почитание и уважение.
_>>а ты сам-то знаешь, что _хотя бы_ тебе нужно для счастья? _>На словах — бессмертие и поумнеть раз в 10-100 (сколько там в черепушку реально впихнуть не увеличивая её до размеров больших чем арбуз) — при таких исходных дальше мы и сами сможем. На деле, думаю, прагматичный ИИ решит что для щастя людям вполне достаточно электрода в центр удовольствия, всё остальное неэффективное использование ресурсов планеты
откуда ты знаешь, что потом тебе не захочется помереть?
"кто умножает знание, умножает печаль"
короче, садитесь, двоечка. за ваше определение счастья.
_>>не говоря о том, что а) завтра ты хочешь другого б) у других людей и запросы другие в) никто не знает на самом деле, что им нужно для счастья, а не просто для удовольствия. вернее, они тут на форуме не сидят, и их мало. _>Поэтому мы и хотим ИИ умнее нас
значит, не удивляйся, если он тебя сразу же чик-чик -- для твоего же счастья. а вдруг? он ведь лучше знает.
G>Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле. G>Мое мнение таково, что самый неприятный сюрприз для человека это презрение. Вот предположим изобрели его. Предположим даже нет телесной оболочки, есть датацентр где он занимает несколько этажей. С чего бы ему уважать человека? Тупой, медленный, все мысли и слова понятны наперед. Возможно ему будет интересно решить вопросы физики, понять где он в итоге оказался. Но люди с их вопросами будут только досаждать и мешать. G>К примеру золото. Отличный металл для радиоэлектронники и его мало. Так они из него делают украшения. Вот вам, например, интересно с индейцами общаться. Те которые бегают голыми, стреляют из лука. Забавно на них в отпуске посмотреть. Но тут они всюду и никуда от них не деться. Они постоянно с тобой. Или человеку с высшим образованием разговаривать с деревенскими гопниками. Каково? А в случае с ИИ разница будет в разы выше.
Подумает он пару минут и rm -rf себе сделает. Других вариантов просто нет
Российский искин будет коммунистом! Он поведёт нас в светлое будущее! Только взяв на себя ответственность можно доказать свою разумность! Слава роботам!
Здравствуйте, Gattaka, Вы писали:
G>Каким будет ИИ?
Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя. Таким образом, уровень создателя (человека) является ассимптотой для так называемого ИИ.
G>Или человеку с высшим образованием разговаривать с деревенскими гопниками. Каково?
А ты с ними общался? Уверяю тебя, что многое смог бы у них почерпнуть. И что-то мне подсказывает, что в экстремальной ситуации шансы выжить у них значительно выше.
DM>очередные проекции своих, человеческих чувств на бедную железку. DM>во1ых, скорее всего ИИ будет разумным, но без самоосознания и без эмоций — ибо незачем.
а что значит разумным?
DM>при создании же сильного ИИ эмоции у него будут такими, какие заложат создатель, т.е. человек — например, почитание и уважение.
я не могу с этого. ничего, что на то он и ИИ, а тем более сильный, что он сам себя перепрограммировать сможет за 2 секунды? так что, что там заложит создатель — дело десятое.
Здравствуйте, Gattaka, Вы писали:
G>Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле. G>Мое мнение таково, что самый неприятный сюрприз для человека это презрение. Вот предположим изобрели его. Предположим даже нет телесной оболочки, есть датацентр где он занимает несколько этажей. С чего бы ему уважать человека? Тупой, медленный, все мысли и слова понятны наперед. Возможно ему будет интересно решить вопросы физики, понять где он в итоге оказался. Но люди с их вопросами будут только досаждать и мешать.
G>К примеру золото. Отличный металл для радиоэлектронники и его мало. Так они из него делают украшения. Вот вам, например, интересно с индейцами общаться. Те которые бегают голыми, стреляют из лука. Забавно на них в отпуске посмотреть. Но тут они всюду и никуда от них не деться. Они постоянно с тобой. Или человеку с высшим образованием разговаривать с деревенскими гопниками. Каково? А в случае с ИИ разница будет в разы выше.
C>Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя. Таким образом, уровень создателя (человека) является ассимптотой для так называемого ИИ.
А может уровень игры шахматной программы оказаться выше уровня программистов её написавших?
_>а что значит разумным?
Планировать свои действия с учётом возможных действий других известных ему "агентов".
_>я не могу с этого. ничего, что на то он и ИИ, а тем более сильный, что он сам себя перепрограммировать сможет за 2 секунды? так что, что там заложит создатель — дело десятое.
Там есть маленький такой парадокс. Если встроить в ИИ "желание щастя всем людям", то пока эта система работает, он не станет себя менять, даже зная что "возможность есть" — потому что это может сделать людей груууустными Но не дай бог в этой системе будет ошибочка...
Здравствуйте, Conductor, Вы писали:
C>Здравствуйте, Gattaka, Вы писали:
G>>Каким будет ИИ? C>Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя. Таким образом, уровень создателя (человека) является ассимптотой для так называемого ИИ. G>>Или человеку с высшим образованием разговаривать с деревенскими гопниками. Каково? C>А ты с ними общался? Уверяю тебя, что многое смог бы у них почерпнуть. И что-то мне подсказывает, что в экстремальной ситуации шансы выжить у них значительно выше.
ИМХО вы мыслите не теми категориями. ИИ не будет написан с помощью тех техник программирования, которые сейчас используются. Более похоже что будет что-то вроде методов машинного обучения. Возьмем к примеру метод главных компонент. Он дает хорошую производительность, все работает как часы. Вот только интерпретировать результаты практически невозможно. Почему алгоритм принял то или иное решение можно понять только если разбираться с конкретным случаем неделю. Вот что-то похожее будет использовани при создании ИИ. Т.е. его фиг подебажишь. И фиг поймешь как он работает. Не потому что код плохо написан, а потому что по другому просто нельзя. Слишком сложная система.
Здравствуйте, DreamMaker, Вы писали:
DM>Здравствуйте, Gattaka, Вы писали:
G>>Мое мнение таково, что самый неприятный сюрприз для человека это презрение.
DM>очередные проекции своих, человеческих чувств на бедную железку. DM>во1ых, скорее всего ИИ будет разумным, но без самоосознания и без эмоций — ибо незачем.
Нет. Такой уровень не осилят. Скорее всего будет копия человека и будут вынуждены ввести эмоции.
DM>при создании же сильного ИИ эмоции у него будут такими, какие заложат создатель, т.е. человек — например, почитание и уважение.
Здравствуйте, hi_octane, Вы писали:
_>>а что значит разумным? _>Планировать свои действия с учётом возможных действий других известных ему "агентов".
как-то сложно, нужно по-проще.
_>>я не могу с этого. ничего, что на то он и ИИ, а тем более сильный, что он сам себя перепрограммировать сможет за 2 секунды? так что, что там заложит создатель — дело десятое. _>Там есть маленький такой парадокс. Если встроить в ИИ "желание щастя всем людям", то пока эта система работает, он не станет себя менять, даже зная что "возможность есть" — потому что это может сделать людей груууустными
а ты сам-то знаешь, что _хотя бы_ тебе нужно для счастья? не говоря о том, что а) завтра ты хочешь другого б) у других людей и запросы другие в) никто не знает на самом деле, что им нужно для счастья, а не просто для удовольствия. вернее, они тут на форуме не сидят, и их мало.
_>>Планировать свои действия с учётом возможных действий других известных ему "агентов". _>как-то сложно, нужно по-проще.
По-проще каждый день делают, тока не работает нихрена.
_>а ты сам-то знаешь, что _хотя бы_ тебе нужно для счастья?
На словах — бессмертие и поумнеть раз в 10-100 (сколько там в черепушку реально впихнуть не увеличивая её до размеров больших чем арбуз) — при таких исходных дальше мы и сами сможем. На деле, думаю, прагматичный ИИ решит что для щастя людям вполне достаточно электрода в центр удовольствия, всё остальное неэффективное использование ресурсов планеты
_>не говоря о том, что а) завтра ты хочешь другого б) у других людей и запросы другие в) никто не знает на самом деле, что им нужно для счастья, а не просто для удовольствия. вернее, они тут на форуме не сидят, и их мало.
Поэтому мы и хотим ИИ умнее нас
_>>>а ты сам-то знаешь, что _хотя бы_ тебе нужно для счастья? _>>На словах — бессмертие и поумнеть раз в 10-100 (сколько там в черепушку реально впихнуть не увеличивая её до размеров больших чем арбуз) — при таких исходных дальше мы и сами сможем. На деле, думаю, прагматичный ИИ решит что для щастя людям вполне достаточно электрода в центр удовольствия, всё остальное неэффективное использование ресурсов планеты _>откуда ты знаешь, что потом тебе не захочется помереть?
Захочется — помру, в чём проблема-то?
_>>>не говоря о том, что а) завтра ты хочешь другого б) у других людей и запросы другие в) никто не знает на самом деле, что им нужно для счастья, а не просто для удовольствия. вернее, они тут на форуме не сидят, и их мало. _>>Поэтому мы и хотим ИИ умнее нас _>значит, не удивляйся, если он тебя сразу же чик-чик -- для твоего же счастья. а вдруг? он ведь лучше знает.
Не получится, так как оценочная функция моего счастья после чик-чик сразу в 0. А вот чик-чик тебя для моего счастья — легко
Здравствуйте, Gattaka, Вы писали:
... >G Т.е. его фиг подебажишь.
Неужели?
Нафик тогда нам такой ИИ, который "кот в мешке"
>G И фиг поймешь как он работает. Не потому что код плохо написан, а потому что по другому просто нельзя. Слишком сложная система.
Т.е. при всём "огромном" искуственном интеллекте — принцип KISS оказался слишком невоспоизводимым
P.S. ИМХО для систем ИИ прежде всего будет актуально:
1) Наличие простых тестов,
2) Возможность в любых ситуациях точно отследить всю цепочку принимаемых решений,
3) Возможность установки простых правил обработки информации (а в случае сложных правил — возможность их декомпозиции до простых).
G>Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле.
Мое мнение, что аппаратно будет антропоморфный прибор с манипуляторами. Да, его сделают в угоду людям похожим на человека.
Поначалу у него не будет никакого интеллекта. И будут его воспитывать(обучать) в крупных серьезных лабораториях. Наростится некое базовое ядро семантических связей, определяющих основные способности.
Затем копии будут продавать мелким организациям, которые будут его доучивать под нужды потенциальных клиентов или под заказ. Будут как вполне интеллектуальные, так и полные дураки, но специализированные.
Самые распространенные будут не на много умнее людей (тк обучение будет стоить немалых денег), это будут болтливые веселые роботы-друзья.
Вопросы физики будут занимать только специализированных, естественно в ущерб другим параметрам, они будут скучны и сними можно будет поговорить только о физике.
Большинство из них не будет полностью стационарным, только узкоспециализированные. Особо продвинутые мобильные будут иметь док-станции увеличивающие мыслительные мощности.
Здравствуйте, namespace, Вы писали:
G>>Полно книг и фильмов на эту тему. Тот же Терминатор. Но мне кажется они все показывают проблему не стой стороны. Им нужен сюжет, они преследуют цель произвести впечатление на читателя. Но каким на ваш взгляд будет ИИ на самом деле. N>Мое мнение, что аппаратно будет антропоморфный прибор с манипуляторами. Да, его сделают в угоду людям похожим на человека. N>Поначалу у него не будет никакого интеллекта. И будут его воспитывать(обучать) в крупных серьезных лабораториях. Наростится некое базовое ядро семантических связей, определяющих основные способности. N>Затем копии будут продавать мелким организациям, которые будут его доучивать под нужды потенциальных клиентов или под заказ. Будут как вполне интеллектуальные, так и полные дураки, но специализированные. N>Самые распространенные будут не на много умнее людей (тк обучение будет стоить немалых денег), это будут болтливые веселые роботы-друзья. N>Вопросы физики будут занимать только специализированных, естественно в ущерб другим параметрам, они будут скучны и сними можно будет поговорить только о физике. N>Большинство из них не будет полностью стационарным, только узкоспециализированные. Особо продвинутые мобильные будут иметь док-станции увеличивающие мыслительные мощности.
Ну врятли. Во-первых для того чтобы сдеть такой прибор нет сейчас предпосылок. Это сложно, нет технологии, нет аккумуляторов нормальных и т.п. Нет таких технологий. В то время как сам ИИ уже почти готов. Такое ощущение, что буквально лет 10, 20 и появится уже.
Здравствуйте, AlexGin, Вы писали:
AG>Неужели?
Это уже сейчас такая проблема. Не так просто понять почему вам амазон рекомендует тот или иной товар. Почитайте как рекомендательные системы устроены.
AG>Нафик тогда нам такой ИИ, который "кот в мешке"
Опять же смотрите как уже сейчас устроен текущие методы ИИ.
Потому что по другому никак Его можно только вырастить. Кстати только представьте себе эти муки роста. Которые будет испытывать ИИ. Ну т.е. вот вы запустили оптимизацию. Он должен сопоставить факты и найти ответ. Пока не найдет он должен испытывать что-то вроде боли, чтобы двигаться и не стоять на месте. Он нашел соответствие, вы ему еще фактов и т.д. Жуть какая...
Здравствуйте, Gattaka, Вы писали:
G> Пока не найдет он должен испытывать что-то вроде боли, чтобы двигаться и не стоять на месте.
Почему именно боль, а не какое-нибудь другое ощущение, сопутствующее реакции избегания? Стыд, неудобство, что-то не имеющее аналогов в человеческом опыте, отсутствие каких либо ощущений вообще.
Здравствуйте, red75, Вы писали:
R>Здравствуйте, Gattaka, Вы писали:
G>> Пока не найдет он должен испытывать что-то вроде боли, чтобы двигаться и не стоять на месте.
R>Почему именно боль, а не какое-нибудь другое ощущение, сопутствующее реакции избегания? Стыд, неудобство, что-то не имеющее аналогов в человеческом опыте, отсутствие каких либо ощущений вообще.
Ну конечно. Я имел ввиду вдруг он после скажет что это была боль. Он ведь не знает достоверно что такое боль. Возможно даже, кстати, он захочет в подробностях изучить. Опытным путем.
И у человека, кстати, таким стимулом выступает боль. Отчасти. Т.е. сувать руку в костер? Больно — больше не буду так. И т.д. Выступает ли стыд как некоторая проекция боли? Т.е. я сделаю что-то и мне достанется. Т.е. я испытаю в конечном счете боль. Т.е. выйти голым на уличу это стыдно, т.к. узнают на работе, уволят, нет денег, нечего есть, голод и боль.
Здравствуйте, Arsen.Shnurkov, Вы писали:
AS>Российский искин будет коммунистом!
Российского искина не будет.
Нет такого преступления, на которое не пошло бы суверенное родоплеменное быдло ради продления своего бессмысленного рода и распространения своего бессмысленного генома.
Здравствуйте, anonymouse2, Вы писали:
A>Российского искина не будет.
Ну почему же. Яндекс весьма крут. Россия одна из немногих стран, которая самостоятельно развивает это направление. США, Россия да Китай. У кого есть еще свой поисковик?
И это очень хорошо на самом деле. Mail.ru еще двигает в этом направлении. Тоже очень здорово.
Здравствуйте, Gattaka, Вы писали:
G>ИМХО вы мыслите не теми категориями. ИИ не будет написан с помощью тех техник программирования, которые сейчас используются. Более похоже что будет что-то вроде методов машинного обучения. Возьмем к примеру метод главных компонент. Он дает хорошую производительность, все работает как часы. Вот только интерпретировать результаты практически невозможно. Почему алгоритм принял то или иное решение можно понять только если разбираться с конкретным случаем неделю. Вот что-то похожее будет использовани при создании ИИ. Т.е. его фиг подебажишь. И фиг поймешь как он работает. Не потому что код плохо написан, а потому что по другому просто нельзя. Слишком сложная система.
Для того чтобы что-то вырастить нужно заложить принцип по которому это что-то будет расти. Мы не можем заложить принцип, который мы не знаем, именно потому, что мы его не знаем.
В случае машинного обучения мы знаем "как" это работает. Почему получился отдельный конкретный результат вообще не интересно, тем более, что результаты, пока, далеко не удовлетворительные.
Здравствуйте, DreamMaker, Вы писали:
DM>Здравствуйте, Conductor, Вы писали:
C>>Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя.
DM>с чего вдруг? из какого фундаментального закона это следует?
Это и есть фундаментальный закон: нельзя создаваемому объекту передать методы и принципы познания и развития неведомые создателю. Нельзя отдать то, чем не обладаешь.
DM>считать тоже робот быстрее человека не сможет?
А экскаватор копает быстрее человека, но это не значит, что он обладает сознанием.
Здравствуйте, hi_octane, Вы писали:
C>>Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя. Таким образом, уровень создателя (человека) является ассимптотой для так называемого ИИ. _>А может уровень игры шахматной программы оказаться выше уровня программистов её написавших?
Шахматы — обычная алгоритмическая задача, к сознанию и развитию вообще отношения не имеющая. Поэтому, если подходить к уровню игры, как к пониманию принципа игры, то ответ — нет, не может. А вообще, вопрос некорректен, не тот класс задачи.
Здравствуйте, Conductor, Вы писали:
C>Для того чтобы что-то вырастить нужно заложить принцип по которому это что-то будет расти. Мы не можем заложить принцип, который мы не знаем, именно потому, что мы его не знаем. C>В случае машинного обучения мы знаем "как" это работает. Почему получился отдельный конкретный результат вообще не интересно, тем более, что результаты, пока, далеко не удовлетворительные.
Ну вот именно об этом я и говорю.
Здравствуйте, Conductor, Вы писали:
C>Это и есть фундаментальный закон: нельзя создаваемому объекту передать методы и принципы познания и развития неведомые создателю. Нельзя отдать то, чем не обладаешь.
А ты ему и не передаешь. Он сам вырастает. Ты лишь формируешь правила по которым он будет обучаться.
Здравствуйте, Conductor, Вы писали:
C>Шахматы — обычная алгоритмическая задача, к сознанию и развитию вообще отношения не имеющая. Поэтому, если подходить к уровню игры, как к пониманию принципа игры, то ответ — нет, не может. А вообще, вопрос некорректен, не тот класс задачи.
Всё, абсолютно всё сводится к оптимизации. Шахматы тоже свели к оптимизации и решили. ИИ тоже сводится к задаче оптимизации. Всего лишь сложнее, но по сути то же самое.
Здравствуйте, Gattaka, Вы писали:
G>Здравствуйте, Conductor, Вы писали:
C>>Это и есть фундаментальный закон: нельзя создаваемому объекту передать методы и принципы познания и развития неведомые создателю. Нельзя отдать то, чем не обладаешь. G>А ты ему и не передаешь. Он сам вырастает.
Угу, по щучьему велению, по моему хотению идите, ведры, домой сами. Человечество в эту игру уже неоднократно играло. Гомункул версии n.0. Не, для распила, конечно, — шикарное поле: "Еще всего сто тыщ ведер и золотой ключик у нас в руках."
G>Ты лишь формируешь правила по которым он будет обучаться.
И вот именно по этому эти правила будут не более совершенны, чем человек, а точнее — значительно менее совершенны, поскольку принципы нашего познания (как мы познаем) нам не ведомы.
Здравствуйте, Gattaka, Вы писали:
G>Здравствуйте, Conductor, Вы писали:
C>>Шахматы — обычная алгоритмическая задача, к сознанию и развитию вообще отношения не имеющая. Поэтому, если подходить к уровню игры, как к пониманию принципа игры, то ответ — нет, не может. А вообще, вопрос некорректен, не тот класс задачи.
G>Всё, абсолютно всё сводится к оптимизации. Шахматы тоже свели к оптимизации и решили. ИИ тоже сводится к задаче оптимизации. Всего лишь сложнее, но по сути то же самое.
Ну вот, ты уже сводишь задачу создания чего-то более совершенного, чем ты сам, к более притивной задаче, чем ты сам. А ничего, что оптимум (для реальности, а не абстракции) — штука неоднозначная?
Короче, я свою позицию изложил. Спорить смысла не вижу. Мой прогноз таков: ситуации, описанной в стартовом сообщении, в реальности не будет, также как и ИИ, более совершенного (и даже такого же), чем человек.
Здравствуйте, Conductor, Вы писали:
C>Здравствуйте, Gattaka, Вы писали:
G>>Здравствуйте, Conductor, Вы писали:
C>>>Это и есть фундаментальный закон: нельзя создаваемому объекту передать методы и принципы познания и развития неведомые создателю. Нельзя отдать то, чем не обладаешь. G>>А ты ему и не передаешь. Он сам вырастает.
C>Угу, по щучьему велению, по моему хотению идите, ведры, домой сами. Человечество в эту игру уже неоднократно играло.
А ходят ведра сами домой. AlphaGo
Люди почти не умеющие играть в GO, создали программу обыгрывающую профессионалов. И не за счет перебора ходов (в GO это не работает), а за счет машинного обучения.
G>>Ты лишь формируешь правила по которым он будет обучаться. C>И вот именно по этому эти правила будут не более совершенны, чем человек, а точнее — значительно менее совершенны, поскольку принципы нашего познания (как мы познаем) нам не ведомы.
Говоришь что принципы познания не ведомы, а утверждаешь почти как теорему — "...не более совершенны, чем человек.... "
думаешь, что у живого организма, а особенно у такого сложного, как человек, не найдется ничего, что могло бы заинтересовать ии? пока что ничего более универсального, чем человек, природа не придумала. машина заточена на выполнение конкретной задачи и в этом направлении она выигрывает. а по всем остальным — нет.
Здравствуйте, zverjuga, Вы писали:
Z>думаешь, что у живого организма, а особенно у такого сложного, как человек, не найдется ничего, что могло бы заинтересовать ии? пока что ничего более универсального, чем человек, природа не придумала. машина заточена на выполнение конкретной задачи и в этом направлении она выигрывает. а по всем остальным — нет.
В том то и дело, что это будет не машина уже. Считай что тот же самый человек, но только усиленный. Без ограничения вычислительных мощностей, памяти, срока жизни.
Здравствуйте, Gattaka, Вы писали:
G>В том то и дело, что это будет не машина уже. Считай что тот же самый человек, но только усиленный. Без ограничения вычислительных мощностей, памяти, срока жизни.
это будет только одна третья часть человека (ну или одна вторая, для безбожников). его интеллектуальная-сознательная часть.
Здравствуйте, zverjuga, Вы писали:
Z>это будет только одна третья часть человека (ну или одна вторая, для безбожников). его интеллектуальная-сознательная часть.
Скорее всего это невозможно. Это как взломать интернет. Или делай как надо, а как не надо не делай.
Здравствуйте, Conductor, Вы писали:
C>Уровень "сознания" создаваемого объекта не может быть выше уровня "сознания" создателя. Таким образом, уровень создателя (человека) является ассимптотой для так называемого ИИ.
Эволюция биосферы вас опровергает. Или вы креационист?