Здравствуйте, ·, Вы писали:
·>Тезис "алгоритмы, решающие проблему самоприменимости, не могут существовать" — неверен, по крайней мере в терминологии как я её понял из твоих объяснений. Например, "print 42" это самоприменимый алгоритм — его можно применить к любому входу, в т.ч. к описанию самого себя и он так же корректно отработает.
Т.е. другие ветки этой темы ты не читал? Проблема самоприменимости -- не о существовании таких алгоритмов. Так же, как проблема остановки -- не о том, существуют ли останавливающиеся алгоритмы. Ответ в обоих случаях очевиден и вполне тривиален. Проблемой является распознавание этих свойств у алгоритмов.
·>Ну так машины точно так же решают частные случаи неразрешимых задач, т.к. частные случаи не всегда являются неразрешимыми задачами.
Можешь привести пример алгоритма решения такого частного случая любой неразрешимой проблемы, построенный не человеком, а машиной?
·>Что такое самосознание — пока только вопросы. Скажем, когда операционка анализирует использование CPU и памяти и как-то управляет ресурсами на основании анализа? Это самосознание или ещё нет?
Вряд ли возможно ответить на этот вопрос до тех пор, пока понятие самосознания не будет формализовано
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>·>Тезис "алгоритмы, решающие проблему самоприменимости, не могут существовать" — неверен, по крайней мере в терминологии как я её понял из твоих объяснений. Например, "print 42" это самоприменимый алгоритм — его можно применить к любому входу, в т.ч. к описанию самого себя и он так же корректно отработает. KV>Т.е. другие ветки этой темы ты не читал? Проблема самоприменимости -- не о существовании таких алгоритмов. Так же, как проблема остановки -- не о том, существуют ли останавливающиеся алгоритмы. Ответ в обоих случаях очевиден и вполне тривиален. Проблемой является распознавание этих свойств у алгоритмов.
А в чём тогда смысл введения этого понятия "самоприменимость"? Чем "применить алгоритм к своему описанию" в данном контексте отличается от "применить алгоритм к числу 0"? И то, и то — неразрешимые задачи. Зачем этот усложнизм?
KV>·>Ну так машины точно так же решают частные случаи неразрешимых задач, т.к. частные случаи не всегда являются неразрешимыми задачами. KV>Можешь привести пример алгоритма решения такого частного случая любой неразрешимой проблемы, построенный не человеком, а машиной?
Тут опять проблема со смыслом понятиий.
Ибо можно вообще сказать, что машина задачи никакие не решает, а это лишь инструмент человека — и все задачи решил человек, некоторые — с помощью машины.
А можно сказать, что это, например, любой достаточно большой перебор, который, например, позволил определить что данный алгоритм остановится.
KV>Вряд ли возможно ответить на этот вопрос до тех пор, пока понятие самосознания не будет формализовано
+1
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[3]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Проблема самоприменимости -- про анализ алгоритма, а не про его исполнение (см. выше мой предыдущий ответ kov_serg).
нет, она не про анализ алгоритма, она про анализ исполнения алгоритма
Самопримени́мость в теории алгоритмов — свойство алгоритма успешно завершаться на данных, представляющих собой формальную запись этого же алгоритма.
"успешно завершаться" здесь и есть исполнение алгоритма и останов машины, в то время как "неприменяемость" по сути есть зацикливаемость машины, и сам "анализ" здесь есть запуск машины на исполнение, и пока машина работает, невозможно сказать, зациклилась она ( кроме самых простейших случаев) либо исполняет алгоритм. С точки зрения же человека, анализ не подразумевает исполнение. Когда я вижу for(int i = 0; i < MAX_INT; ++i) я не прокручиваю переменную MAX_INT раз, чтобы понять, завершится цикл или нет, поэтому человеческий анализ и машинный "анализ" самоприменимости это вообще ортогональные понятия.
Re[4]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, antropolog, Вы писали:
A>"успешно завершаться" здесь и есть исполнение алгоритма и останов машины, в то время как "неприменяемость" по сути есть зацикливаемость машины, и сам "анализ" здесь есть запуск машины на исполнение, и пока машина работает, невозможно сказать, зациклилась она ( кроме самых простейших случаев) либо исполняет алгоритм. С точки зрения же человека, анализ не подразумевает исполнение. Когда я вижу for(int i = 0; i < MAX_INT; ++i) я не прокручиваю переменную MAX_INT раз, чтобы понять, завершится цикл или нет, поэтому человеческий анализ и машинный "анализ" самоприменимости это вообще ортогональные понятия.
А такой код: for(int i = 0; i < INFINITY; ++i)
?
Вообще, я не уверен, что человек в состоянии проанализировать достаточно сложный код/алгоритм. Как для алгоритма нужен запуск, так и для человека анализ себя не может быть чисто умозрительным, а основан исключительно на опыте, т.е. запусках самого себя.
Re[4]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, antropolog, Вы писали:
A>"успешно завершаться" здесь и есть исполнение алгоритма и останов машины, в то время как "неприменяемость" по сути есть зацикливаемость машины, и сам "анализ" здесь есть запуск машины на исполнение, и пока машина работает, невозможно сказать, зациклилась она ( кроме самых простейших случаев) либо исполняет алгоритм.
Смешались в кучу кони, люди
Не имеет никакого значения, что именно здесь подразумевается под анализом. Всё, что нужно знать про анализ в данном случае, что это некоторый алгоритм разрешения конкретного нетривиального инвариантного свойства алгоритмов любым способом. Более того, здесь даже не имеет значения, в определённой степени, что именно подразумевается под алгоритмом. Тьюринг в своей первой работе показал, что всякий алгоритм является не более, чем способом определения некоторого множества натуральных чисел. "Всякий" означает в т.ч. и то, что это справедливо, как для "обычных" алгоритмов, так и для их "анализаторов". И это всё, что нам нужно знать о понятии алгоритма, чтобы увидеть противоречие в предположении, рассматриваемом в доказательстве теоремы.
Потому как, даже отталкиваясь только от этого "определения" алгоритма, уже можно увидеть, что в теореме рассматривается вопрос существования множества множеств, включающего в качестве элемента самого себя, а демонстрируемое в доказательстве противоречие практически дословно повторяет обоснование парадокса Рассела, не имеющего к алгоритмам никакого отношения.
A>С точки зрения же человека, анализ не подразумевает исполнение. Когда я вижу for(int i = 0; i < MAX_INT; ++i) я не прокручиваю переменную MAX_INT раз, чтобы понять, завершится цикл или нет, поэтому человеческий анализ и машинный "анализ" самоприменимости это вообще ортогональные понятия.
Ты ошибаешься, считая, что динамический анализ является единственным возможным подходом к разрешению свойств алгоримтов. Не только не является, но ещё и не применим к обратной задаче, когда по заданному результату работы алгоритма нужно построить приводящее к нему множество его входных данных. В этом случае, как правило, используется различные подходы к т.н. абстрактной интерпретации, наиболее известными из которых являются поиск неподвижных точек на решётках выражений, вычисляемых кодом и символическое выполнение (на всякий случай: не подразумевающее при этом выполнение анализируемого кода).
Ну и, кроме того, ты же сам выше оговорился насчёт простейших случаев. И сам же далее приводишь такой случай в качестве иллюстрации особенностей человеческого мышления Могу заверить, что и точки зрения машин анализ таких случаев не требует исполнения кода. Например, наш анализатор (PT Application Inspector) вполне справляется с любыми циклами (никоим образом не выполняя их при этом), инварианты которых не зависят от входных данных.
А вот что ты сделаешь, чтобы понять, завершится цикл или нет, когда увидишь вот такой его код на JavaScript:
Здравствуйте, ·, Вы писали:
·>А в чём тогда смысл введения этого понятия "самоприменимость"? Чем "применить алгоритм к своему описанию" в данном контексте отличается от "применить алгоритм к числу 0"? И то, и то — неразрешимые задачи. Зачем этот усложнизм?
Ну вот откуда у тебя (уже который раз) возникает утверждение, что "применить алгоритм к своему описанию" является неразрешимой задачей?
·>Ибо можно вообще сказать, что машина задачи никакие не решает, а это лишь инструмент человека — и все задачи решил человек, некоторые — с помощью машины. ·>А можно сказать, что это, например, любой достаточно большой перебор, который, например, позволил определить что данный алгоритм остановится.
Можно, только в чём будет смысл этого eductio ad absurdum? Если машина не более, чем инструмент человека и не способна быть самодостаточной, то ответ на исходный вопрос становится очевидным.
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>·>А в чём тогда смысл введения этого понятия "самоприменимость"? Чем "применить алгоритм к своему описанию" в данном контексте отличается от "применить алгоритм к числу 0"? И то, и то — неразрешимые задачи. Зачем этот усложнизм? KV>Ну вот откуда у тебя (уже который раз) возникает утверждение, что "применить алгоритм к своему описанию" является неразрешимой задачей?
Я не это имел в виду. Ты сказал " Под самоприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является его собственное формальное описание. Данная теорема утверждает, что алгоритмы, решающие проблему самоприменимости, не могут существовать."
Сделаем замену
"Под нулеприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является нуль. Данная теорема утверждает, что алгоритмы, решающие проблему нулеприменимости, не могут существовать."
Что изменилось, кроме того, что стало чуть проще?
KV>·>Ибо можно вообще сказать, что машина задачи никакие не решает, а это лишь инструмент человека — и все задачи решил человек, некоторые — с помощью машины. KV>·>А можно сказать, что это, например, любой достаточно большой перебор, который, например, позволил определить что данный алгоритм остановится. KV>Можно, только в чём будет смысл этого eductio ad absurdum? Если машина не более, чем инструмент человека и не способна быть самодостаточной, то ответ на исходный вопрос становится очевидным.
Это ответ на вопрос про нынешние машины. Возможно ли изобретение более "сознательной" (что бы это ни значило) машины — вопрос остаётся.
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Посередине между теоремой останова и теоремой Райса находится ещё одна теорема, чуть более общая, чем первая и чуть менее, чем вторая. Это теорема о самоприменимости алгоритмов. Под самоприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является его собственное формальное описание. Данная теорема утверждает, что алгоритмы, решающие проблему самоприменимости, не могут существовать. Доказывается она ещё проще, чем теорема останова, поскольку необходимость рассмотрения диагонального случая (f(f(f))) здесь очевидна из самой формулировки. Таким образом, мы рассматриваем алгоритм, решающий для самого себя проблему самоприменимости и показываем наличие противоречия, как бы намекающего на справедливость формулировки теоремы.
Я правильно понимаю, что эта теорема утверждает, что не существует алгоритма, который был бы в состоянии вывести собственное формальное описание? Ведь его потом можно было бы сравнить с любым подаваемым на вход?
Интересно, а Рефлектор, который из IL-кода выводит собственное "формальное описание" на C# — это в кач-ве примера не подходит? ))
А, может, решабельность задачи зависит от способа формального представления этого описания?
Re: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>б) чтобы допустить существование машинного мышления, эквивалентого человеческому, необходимо также и допустить, что человеческое мышление суть -- невероятно сложный, но всё же алгоритм, поддающийся эмуляции на машине Тьюринга.
«Новый ум короля. О компьютерах, мышлении и законах физики» (англ. The Emperor’s New Mind: Concerning Computers, Minds and The Laws of Physics) — книга в жанре non-fiction британского физика сэра Роджера Пенроуза, вышедшая в 1989 году.
Название книги является аллюзией на название сказки Х. К. Андерсена «Новое платье короля», главный герой которой — король, предпочитающий не замечать обман, чтобы не уронить своё достоинство. В своей книге Пенроуз утверждает, что человеческое сознание не является алгоритмическим, и в силу этого не может быть смоделировано с помощью обычного компьютера типа машины Тьюринга. По мнению Пенроуза, для понимания природы человеческого сознания важную роль должен сыграть аппарат квантовой механики, в частности, редукция фон Неймана. Пенроуз считает, что необходимо разработать новую теорию, которая будет включать в себя «объективную редукцию волновых функций»[
Re[2]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, DEMON HOOD, Вы писали:
DH>«Новый ум короля. О компьютерах, мышлении и законах физики» (англ. The Emperor’s New Mind: Concerning Computers, Minds and The Laws of Physics) — книга в жанре non-fiction британского физика сэра Роджера Пенроуза, вышедшая в 1989 году.
Да, читал и его же "Тени разума" тоже. Из обсуждения этого же поста на фейсбуке:
P.S: Хоть и не в эту тему, но у Пенроуза также стоит почитать ещё и "Путь к реальности".
Здравствуйте, kochetkov.vladimir, Вы писали:
KV>Да, читал и его же "Тени разума" тоже. Из обсуждения этого же поста на фейсбуке:
некто Стюарт Хамеров, анастезиолог, немного с другого конца подошел к проблеме. Он задался вопросом, как так — я человеку отключаю сознание анестезией, но мозг продолжает работать, нейроны импульсы посылают итп. но сознания нет, где оно? В общем он совместно с Пенроузом разработал свою теорию, о том что сознание находится в микротрубочках, которые находятся внутри клетки. И вроде бы как уже экспериментально подтверждено что анестезия влияет на процессы идущие в микротрубочках.
У него вообще радикальный взгляд — все наши мысли были созданы во время большого взрыва, но потребовались люди чтобы эти мысли думать
Re[4]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, DEMON HOOD, Вы писали:
DH>некто Стюарт Хамеров, анастезиолог, немного с другого конца подошел к проблеме. Он задался вопросом, как так — я человеку отключаю сознание анестезией, но мозг продолжает работать, нейроны импульсы посылают итп. но сознания нет, где оно? В общем он совместно с Пенроузом разработал свою теорию, о том что сознание находится в микротрубочках, которые находятся внутри клетки. И вроде бы как уже экспериментально подтверждено что анестезия влияет на процессы идущие в микротрубочках.
Всё так, и это интересно, но никак не отвечает на исходный вопрос
DH>У него вообще радикальный взгляд — все наши мысли были созданы во время большого взрыва, но потребовались люди чтобы эти мысли думать
Здравствуйте, DEMON HOOD, Вы писали:
DH>Название книги является аллюзией на название сказки Х. К. Андерсена «Новое платье короля», главный герой которой — король, предпочитающий не замечать обман, чтобы не уронить своё достоинство. В своей книге Пенроуз утверждает, что человеческое сознание не является алгоритмическим, и в силу этого не может быть смоделировано с помощью обычного компьютера типа машины Тьюринга. По мнению Пенроуза, для понимания природы человеческого сознания важную роль должен сыграть аппарат квантовой механики DH>[/q]
И как давно стало нельзя численно промоделировать квантовые эффекты? ))
Из всех проявлений "квантовых эффектов" при мышлении человека — это низкое отношение сигнал/шум.
Собсно, шум на p-n переходе полупроводников имеет точно такую же квантовую природу, как и "квантовая" составляющая мышления.
Параметры шума можно снять и вложить в модель.
Дело за точностью вычислений...
Хотя, сдаётся мне, большая точность не потребуется.
Re[18]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, ·, Вы писали:
·>Сделаем замену ·>"Под нулеприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является нуль. Данная теорема утверждает, что алгоритмы, решающие проблему нулеприменимости, не могут существовать." ·>Что изменилось, кроме того, что стало чуть проще?
Изменилось то, что доказательство этой теоремы не представляет никакого практического интереса, в отличие от вопроса самоприменимости. Если бы существовал алгоритм, решающий эту проблему на всём множестве существующих алгоритмов, то мы могли бы сформулировать его в терминах машины Тьюринга, в терминах лямбда-исчисления, в терминах любой другой вычислительной модели. И подать на вход каждой его реализации каждую из этих реализаций. И положительный ответ об их самоприменимости фактически доказал бы тезис Чёрча-Тьюринга.
Здравствуйте, DEMON HOOD, Вы писали:
DH>некто Стюарт Хамеров, анастезиолог, немного с другого конца подошел к проблеме. Он задался вопросом, как так — я человеку отключаю сознание анестезией, но мозг продолжает работать, нейроны импульсы посылают итп.
Потому что он двоечник. ))
Сложно было открыть справочник и почитать действие конкретного вещества на нервную систему?
DH>но сознания нет, где оно?
Там же, где и в процессе сна.
Занято "починкой" организма.
DH>В общем он совместно с Пенроузом разработал свою теорию, о том что сознание находится в микротрубочках, которые находятся внутри клетки.
Митохондрии не только со своими ДНК, но и со своим сознанием.
Не зря говорят, что в анестезиологи попадат двоечники, кто медицину асилить так и не смог.
DH>И вроде бы как уже экспериментально подтверждено что анестезия влияет на процессы идущие в микротрубочках.
Тебе в 8-м классе школы на биологии преподавали вегетативную нервную систему — для чего она и чем она управляется.
DH>У него вообще радикальный взгляд — все наши мысли были созданы во время большого взрыва, но потребовались люди чтобы эти мысли думать
А, ну с этого надо было начинать.
Похоже, этот анестезиолог подворовывает вещества-то.
Re[2]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, vdimas, Вы писали:
V>Я правильно понимаю, что эта теорема утверждает, что не существует алгоритма, который был бы в состоянии вывести собственное формальное описание? Ведь его потом можно было бы сравнить с любым подаваемым на вход?
Нет, на этот счёт есть другая теорема -- Клини о неподвижной точке. Утверждает правда она (точнее, её следствие) совсем обратное: что в любой полной по Тьюрингу вычислительной модели возможно построить такой алгоритм aka квайн.
Как знание алгоритмом своего кода поможет алгоритму определить, зависнет ли он при его обработке или нет?
KV>·>Сделаем замену KV>·>"Под нулеприменимостью здесь подразумевается способность алгоритма корректно отработать в ситуации, когда входными данными для него является нуль. Данная теорема утверждает, что алгоритмы, решающие проблему нулеприменимости, не могут существовать." KV>·>Что изменилось, кроме того, что стало чуть проще? KV>Изменилось то, что доказательство этой теоремы не представляет никакого практического интереса, в отличие от вопроса самоприменимости.
Теорема самоприменимости тривиально сводится к теореме нулеприменимости. А теорема нулеприменимости доказывается проще, не надо заморачиваться с формализацией того, как именно можно выразить описание самого себя. Вот тебе и практический интерес.
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[6]: Мысли вслух на тему "может ли машина мыслить?"
Здравствуйте, hi_octane, Вы писали:
KV>>люди очевидно способны самостоятельно построить эту модель и оперировать ей _>Мне кажется что люди при моделировании себя (и других людей), постоянно пользуются хаком (допустим на зеркальных нейронах, они вроде ближе всего к этой задаче), которые позволяют переносить c/на "себя" сколь угодно сложные модели других.
Беда в том, что сколь угодно сложные переносить не получается.
Поэтому, человек пользуется абсстракциями и иерархиями/классификацией.
_>Этот хак, если сравнивать с задачами программирования — что-то вроде LIST в BASIC (для задачи написать программу которая печатает саму себя), или макросов lisp, которым не проблема взять существующую функцию, пропатчить её и положить на место.
Это что-то вроде чёрточки на экране, изображающей ракету в компьютерной игрушке, вместо собвтенно ракеты.
_>За счёт этого получается интересная вещь — вместо работы в ограничениях теоремы самоприменимости, мы работаем с другой задачей — "применимости нашего алгоритма к аналогичным" на которую ограничение не распространяется
Более того. Наше мышление СЛИШКОМ ассоциативно.
Почти всегда мы ищем в наблюдаемых и познаваемых являниях уже знакомое, т.е. невольно подгоняем любую информацию под некий шаблон собственного восприятия.
А общем, человек, увы, на редкость тупое и бездарное сущ-во с ограниченным моском.
Всю дорогу ему помогают выживать сугубо животные инстинкты: ЧСВ, жажда потребления, агрессия и потрахацо.
А когда сам начинает нуждаться в заботе ближе к старости, то часто впервые в жизни учится дружить с окружающим миром.
Через 30-50 лет машины станут умнее нас, к бабке не ходи.
А что будет лет через 300-500 — даже сложно представить. ))
_>а потом зеркальные нейроны накатывают полученные результаты уже на "наше сознание".
Я думаю — сразу.
Наш моск так устроен, чтобы "уплотнять" информацию. Вот как раз за счёт ассоциативности, в одном разделе моска может хранится "понимание" о сотнях различных вещей, их отношений, структуры или динамических процессах в системах. Отсюда понимание часто неверное, потому что слишком обобщённое с другими понятиями и представлениями, составляющими ассоциацию.
Здравствуйте, vdimas, Вы писали:
V>Потому что он двоечник. )) V>Сложно было открыть справочник и почитать действие конкретного вещества на нервную систему?
ну ты раз отличник — открой справочник и принеси урл
DH>>но сознания нет, где оно?
V>Там же, где и в процессе сна. V>Занято "починкой" организма.
не что делает, а где находится. Напоминаю: все нейроны продолжают работать, сигналы от ушей идут в "слуховую" часть мозга и она их обрабатывает.
DH>>В общем он совместно с Пенроузом разработал свою теорию, о том что сознание находится в микротрубочках, которые находятся внутри клетки.
V> V>Митохондрии не только со своими ДНК, но и со своим сознанием.
причем тут митохондрии?
Микротрубочки — белковые внутриклеточные структуры, входящие в состав цитоскелета. Микротрубочки представляют собой полые цилиндры диаметром 25 нм. Википедия
V>Не зря говорят, что в анестезиологи попадат двоечники, кто медицину асилить так и не смог.
DH>>И вроде бы как уже экспериментально подтверждено что анестезия влияет на процессы идущие в микротрубочках.
V> V>Тебе в 8-м классе школы на биологии преподавали вегетативную нервную систему — для чего она и чем она управляется.
мне не рассказывали что мое сознание находится в микротрубочках, по одной простой причине — этого еще никто не знал.
DH>>У него вообще радикальный взгляд — все наши мысли были созданы во время большого взрыва, но потребовались люди чтобы эти мысли думать
V>А, ну с этого надо было начинать. V>Похоже, этот анестезиолог подворовывает вещества-то.