Посередине между теоремой останова и теоремой Райса находится ещё одна теорема, чуть более общая, чем первая и чуть менее, чем вторая. Это теорема о самоприменимости алгоритмов. Под самоприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является его собственное формальное описание. Данная теорема утверждает, что алгоритмы, решающие проблему самоприменимости, не могут существовать. Доказывается она ещё проще, чем теорема останова, поскольку необходимость рассмотрения диагонального случая (f(f(f))) здесь очевидна из самой формулировки. Таким образом, мы рассматриваем алгоритм, решающий для самого себя проблему самоприменимости и показываем наличие противоречия, как бы намекающего на справедливость формулировки теоремы.
Все существующие ныне реальные вычислительные модели (то есть те, которые могут существовать с точки зрения современных законов физики), будь то квантовые вычисления, или нейросети и т.п., могут быть эмулированы на классической машине Тьюринга. Это значит, что:
а) все такие модели не превосходят тьюринговую модель с точки зрения вычислительной мощности в плане мощности множества решаемых ими алгоритмических проблем;
б) чтобы допустить существование машинного мышления, эквивалентого человеческому, необходимо также и допустить, что человеческое мышление суть -- невероятно сложный, но всё же алгоритм, поддающийся эмуляции на машине Тьюринга.
Философия определяет мышление, как неотъемлемую часть проявления сознания человека. Вот что пишут об этом в этих их википедиях:
"Выделяют следующие формы сознания: самосознание как сознание сознанием самого себя, рассудок как мыслящее сознание, то есть постигающее мир в понятиях (категориях рассудка), разум как самосознающий рассудок и дух как высшую форму сознания, включающую в себя все другие формы. Различие рассудка и разума состоит в том, что рассудок соотносит свои понятия с миром и поэтому его критерием истинности является непротиворечивость. Разум как самосознающий рассудок поднимается до диалектического удержания противоречий, поскольку соотносит не только свои понятия с миром, но и самого себя со своими понятиями."
Сами посчитаете, сколько раз в этой цитате упомянута та самая диагональная конструкция, доказывающая в т.ч. неразрешимость проблемы самоприменимости?
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Посередине между теоремой останова и теоремой Райса находится ещё одна теорема, чуть более общая, чем первая и чуть менее, чем вторая. Это теорема о самоприменимости алгоритмов. Под самоприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является его собственное формальное описание... KV>Сами посчитаете, сколько раз в этой цитате упомянута та самая диагональная конструкция, доказывающая в т.ч. неразрешимость проблемы самоприменимости?
Сколько раз в жизни ты пропускал через себя формальное описание себя?
Re[2]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, 0x7be, Вы писали:
0>Сколько раз в жизни ты пропускал через себя формальное описание себя?
Дык о том, в том числе, и речь. Как только мы приходим к необходимости формального описания чего-либо, у нас на пути встаёт призрак Гёделя, мягко объясняющий (огрубляя), что либо мы опишем не всё, либо наописываем себе такого, что с помощью это же описания не сможем объяснить. Кантор, проблема остановки, Райс -- это же всё растёт оттуда. Философия же утверждает, что подобные диагональные конструкции совершенно не обязательно приводят к возникновению противоречий, а, следовательно, сознание в философском понимании (по меньшей мере) не может существовать на текущих вычислительных моделях.
Здравствуйте, kochetkov.vladimir, Вы писали:
0>>Сколько раз в жизни ты пропускал через себя формальное описание себя? KV>Дык о том, в том числе, и речь. Как только мы приходим к необходимости формального описания чего-либо, у нас на пути встаёт призрак Гёделя, мягко объясняющий (огрубляя), что либо мы опишем не всё, либо наописываем себе такого, что с помощью это же описания не сможем объяснить. Кантор, проблема остановки, Райс -- это же всё растёт оттуда. Философия же утверждает, что подобные диагональные конструкции совершенно не обязательно приводят к возникновению противоречий, а, следовательно, сознание в философском понимании (по меньшей мере) не может существовать на текущих вычислительных моделях.
А может быть просто некорректно приравнивать способность мыслить к способности "обрабатывать формальное описания себя"?
Люди умеют рефлексировать, но представление о себе — это всегда упрощённая модель.
Re[4]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, 0x7be, Вы писали:
0>А может быть просто некорректно приравнивать способность мыслить к способности "обрабатывать формальное описания себя"?
Может быть, а может и нет. Зависит от аргументации. Я свою -- привёл выше, в исходном сообщении
0>Люди умеют рефлексировать, но представление о себе — это всегда упрощённая модель.
Выделенное тоже неплохо было бы для начала аргументировать, но тем не менее, даже если это и так, то люди очевидно способны самостоятельно построить эту модель и оперировать ей. Алгоритмы же не в состоянии решать неразрешимые проблемы подобным образом, т.к. проблема построения упрощённой модели неизменно упирается во всю ту же теорему Райса.
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>то люди очевидно способны самостоятельно построить эту модель и оперировать ей.
Когда я слышу "очевидно", моя рука тянется к пистолету
Докажи, что у тебя есть модель тебя самого, которой ты можешь оперировать, и что эта модель полна и точна.
... << RSDN@Home 1.0.0 alpha 5 rev. 0>>
Re: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>б) чтобы допустить существование машинного мышления, эквивалентого человеческому, необходимо также и допустить, что человеческое мышление суть -- невероятно сложный, но всё же алгоритм, поддающийся эмуляции на машине Тьюринга.
Но из теории про как раз людей вытекает, что человек может держать в памяти и соответственно оперировать не более 7(+/-2) понятиями одновременно, то есть от 5 до 9, а то и меньше. А между тем начали появляться TPU, что тоже меняет дело. А ещё люди исследуют собственный разум и соответственно создают формы записи и обработки логики, а логика в перевод на русский — мышление, осмысление.
Язык логики это язык мышления и описывает он не языком математики. И доказательство имеют природу мышления, а не соотношения величин. Это именно в СССР произошёл такой перекос, потому что теми кто преподавал логику, то есть науку о мышлении были философами, а философы как известно замышляют убить Сталина и прочий бред в духе тех времён.
Соответственно кто-то ушёл из большой науки, которую в том числе прививали в школах, а кто-то остался и замаскировался под математика. В итоге в наследие досталось мысль, что чтобы хорошо программировать, нужно хорошо знать математику. Но чтобы хорошо программировать, нужно уметь мыслить.
Проблема тех, кто доказывает неразрешимость чего-либо в том, что пока они тратят на это свои силы, другие находят решение. Это моё личное мнение, но я считаю, что мышление аналогичное и даже более совершенное, чем человеческое, может функционировать на современном домашнем ПК.
Просто не нужно решать проблему в лоб. Более того, человек учится десятилетиями. А чтобы освоить нечто простое нужны часы, а то и дни. Люди обрабатывают информацию крайне медленно. Если выделить столь чудовищную прорву времени компьютерам, то и они справятся имея соответствующее программное обеспечение.
Что касается памяти, помнят ли люди всё что видят. Нет, не помнят. Раз уж мы говорим о самоанализе, то вот пусть каждый проведёт его для себя. Мой самоанализ показывает, что чтобы чему-то научиться нужно истратить прорву времени, причём усвоенных понятий будет не так уж и много.
Типичная книга будет содержать миллион символов, слов поменьше. Но миллион символов это грубо говоря мегабайт. Чтобы прочесть книгу нужны примерно сутки, вместе со сном, едой и прочими делами. При этом за эти сутки она не будет усвоена. Это просто пропуск последовательного потока данных в память.
Так вот компьютер для достижения уровня сознания человека не обязан симулировать каждый нейрон. В том и преимущество компьютерной техники, что она может совмещать в себе множество принципов подлежащих изменению и улучшению, что пока недоступно для природы людей.
А если доказывать, что компьютер не может мыслить даже не разобравшись как мыслишь сам, то так можно доказать, что те же компьютеры невозможны. Вот был бы смех, если бы человечество наслушавшись таких гениев всё ещё сидело на шестерёнках.
Ещё вернусь к теме домашнего ПК, все знания созданные человечеством создаются именно человечеством, а не отдельным человеком. Люди прогоняют через себя знания полученные и обработанные другими людьми. А то кто-то может подумать, что отдельный домашний ПК должен быть как всё человечество вместе взятое, что неверно.
У людей между прочим тоже не всё так однозначно, различные области нервной системы отвечают за разные функции, иначе бы мозги тоже не работали как надо. Так что здесь вопрос в ПО, а так же в задействованных мощностях, то есть допустимо ли обучать одно сознание десятилетиями, или лучше собрать кластер и ускорить обучение.
Re[6]: Мысли вслух на тему "может ли машина мыслить?"
KV>люди очевидно способны самостоятельно построить эту модель и оперировать ей
Мне кажется что люди при моделировании себя (и других людей), постоянно пользуются хаком (допустим на зеркальных нейронах, они вроде ближе всего к этой задаче), которые позволяют переносить c/на "себя" сколь угодно сложные модели других. Этот хак, если сравнивать с задачами программирования — что-то вроде LIST в BASIC (для задачи написать программу которая печатает саму себя), или макросов lisp, которым не проблема взять существующую функцию, пропатчить её и положить на место.
За счёт этого получается интересная вещь — вместо работы в ограничениях теоремы самоприменимости, мы работаем с другой задачей — "применимости нашего алгоритма к аналогичным" на которую ограничение не распространяется, а потом зеркальные нейроны накатывают полученные результаты уже на "наше сознание".
Re[6]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, hi_octane, Вы писали:
_>За счёт этого получается интересная вещь — вместо работы в ограничениях теоремы самоприменимости, мы работаем с другой задачей — "применимости нашего алгоритма к аналогичным" на которую ограничение не распространяется, а потом зеркальные нейроны накатывают полученные результаты уже на "наше сознание".
А как же Будда?
Re[7]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, kochetkov.vladimir, Вы писали:
CM>>Докажи, что у тебя есть модель тебя самого, которой ты можешь оперировать, и что эта модель полна и точна. KV>Всё, что нужно доказать конкретно тебе, ещё в прошлом году доступно доказал Ikemefula в КСВ И это тот редкий случай, когда я с ним полностью согласен.
Дайте ссылку, а. Очень интересно, что же там такое действительно редкое написано.
Re: Мысли вслух на тему "может ли машина мыслить?"
KV>Сами посчитаете, сколько раз в этой цитате упомянута та самая диагональная конструкция, доказывающая в т.ч. неразрешимость проблемы самоприменимости?
У меня есть своя (?) точка зрения на разум, которая заключается в его сущности как постоянном моделировании реальности наперед
— от простейших физических реакций, до моделировании окружения и в пике сознание как синтез самых общих моделей.
Это, как я считаю, тот путь, что прошел разум от простейших до нас.
Re[6]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, hi_octane, Вы писали:
_>которые позволяют переносить c/на "себя" сколь угодно сложные модели других.
Каковая модель, кстати, легко дает ошибки на порядки, так что уровень достоверности у нее крайне сомнительный. Например, в случае эксперимента Милгрэма крайне малое число опрошенных давало оценку, которая отличалась от реального результата меньше чем в 10 раз.
... << RSDN@Home 1.0.0 alpha 5 rev. 0>>
Re[7]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Всё, что нужно доказать конкретно тебе, ещё в прошлом году доступно доказал Ikemefula в КСВ И это тот редкий случай, когда я с ним полностью согласен.
Уход от ответа засчитан.
Все, что мне надо было знать об уровне твоих рассуждений, ты уже дал этим своим ответом.
... << RSDN@Home 1.0.0 alpha 5 rev. 0>>
Re[8]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, CoderMonkey, Вы писали:
CM>Уход от ответа засчитан. CM>Все, что мне надо было знать об уровне твоих рассуждений, ты уже дал этим своим ответом.
В моём исходном сообщении речь вообще о другом. Всё написанное вами сводится к двум понятиям: памяти и быстродействию. Ни то, ни другое не имеет отношения к вычислительной мощности в математическом смысле этого слова. У МТ, как минимум, полубесконечная память. Следовательно, для разнозначного сравнения её с человеческим мозгом, нужно рассматривать его модель, имеющую точно такое же "ограничение" по памяти. Что же касается быстродействия, то МТ, работающая за N единиц времени и универсальная МТ, эмулирующая ту МТ за не менее, чем квадратичное время, являются равномощными. Квантовые алгоритмы, решающие экспоненциальные задачи за полиномиальное время равномощны их эмуляции на МТ за экспоненциальное время и т.п.
Суть не в том, насколько эффективно может быть решена та или иная задача, а в том, какова мощность множества решаемых машиной задач. Неразрешимые проблемы так называются от того, что они принципиально не могут быть решены вне зависимости от доступной машине памяти или времени на поиск решения. Поэтому, остаётся только пожелать удачи тем, кто вместо доказательства разрешимости какой-либо проблемы сразу бросается на поиски её решения.
Что же касается:
V> Язык логики это язык мышления и описывает он не языком математики.
То здесь было бы неплохо сначала определиться с тем, что же это за логика, которую невозможно описать языком математики? Какими свойствами она может/должна обладать, чтобы данное ограничение стало возможным?
Здравствуйте, hi_octane, Вы писали:
_>За счёт этого получается интересная вещь — вместо работы в ограничениях теоремы самоприменимости, мы работаем с другой задачей — "применимости нашего алгоритма к аналогичным" на которую ограничение не распространяется, а потом зеркальные нейроны накатывают полученные результаты уже на "наше сознание".
Возникло смутное ощущение, что речь здесь идёт о способности человеческого мышления к абстрагированию Да, это интересно.
Здравствуйте, SomeOne_TT, Вы писали:
SO_>У меня есть своя (?) точка зрения на разум, которая заключается в его сущности как постоянном моделировании реальности наперед SO_> — от простейших физических реакций, до моделировании окружения и в пике сознание как синтез самых общих моделей.
"Моделировании" -- в смысле, допущения возможности наступления тех или иных событий в субъективной (воспринимаемой) реальности?
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Здравствуйте, SomeOne_TT, Вы писали:
SO_>>У меня есть своя (?) точка зрения на разум, которая заключается в его сущности как постоянном моделировании реальности наперед SO_>> — от простейших физических реакций, до моделировании окружения и в пике сознание как синтез самых общих моделей.
KV>"Моделировании" -- в смысле, допущения возможности наступления тех или иных событий в субъективной (воспринимаемой) реальности?
Да, близко по смыслу.
Симуляция окружения и причинно-следственных связей. На весьма небольшой промежуток времени, скажем, микросекунду.
Физические симуляции давно "захардкожены" в отдельные отделы мозга вроде мозжечка, а
все что выше постоянно прокручивает/оценивает окружающий-мир-через-микросекунду через выстроенную модель связей в
поисках несоответствий с тем, что происходит на самом деле.