Здравствуйте, konsoletyper, Вы писали:
K>Просто прежде чем говорить о том, что ИИ должен уметь "оперировать абстрактными понятиями", мы должны уточнить, что же это за абстрактные понятия и как их представлять. Я вот высказал гипотезу, что удобно представлять абстрактные понятия в НС. Хотя бы потому, что уже есть НС, способная оперировать абстрактными понятиями.
Гм. Эта гипотеза ничуть не хуже гипотезы о том, что громкоговоритель удобнее всего реализовать как речевой аппарат человека. Хотя бы потому, что уже есть речевой аппарат, способный произносить все необходимые звуки.
По делу: есть два основных подхода к представлению "абстрактных понятий": фреймы и семантические сети.
K>А я и не говорил про какие-то конкретные инстинкты. Просто я выдвигаю гипотезу, что ИИ без самосознания — не есть настоящий ИИ.
Это не гипотеза, а твоя аксиома. Совершенно непонятно, зачем интеллекту самосознание. Или как доказать, что оно ему не нужно.
K>При этом мотивация и самосознание, хотя и связаны друг с другом, но не одно и то же. А в качестве мотива можно было бы задать что угодно. Например, делаем ИИ с мотивацией к распознаванию текстов, и он, имея такую мотивацию, изучит естественную речь, лишь бы как можно точнее распознавать буквы. Только в том и вопрос, как определить такую мотивацию.
А как вообще определить "мотивацию"? Что это такое? Есть мнение, что основы мотивации естественного интеллекта связаны с пирамидой Маслоу, и "зашиты" в нас на очень низком уровне, ниже сознания. Хотя до сих пор природа человеческой мотивации совершенно неясна: зафиксировано очень большое количество случаев, когда люди действуют против собственных интересов, и с завидным упорством. В свете этого лично мне непонятно, как и чем мы собираемся мотивировать ИИ, с учетом отсутствия у него естественных потребностей.
1.2.0 alpha rev. 655
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, wonderboy, Вы писали: W>"исследовать <такую-то> научную проблему" W>"предложить философскую концепцию по <такому-то> вопросу"
мой опыт получения образования сводится к тому, что подобные задачи для начинаюших близки к неразрешимым. Увы — к старшим курсам как правило удается выделить тот весьма ограниченный набор образцов, который подразумевается под "правильными" ответами на подобные вопросы. После этого решение таких проблем ничуть не сложнее стихосложения, и автоматизация его тоже ничуть не лучше чем автоматические вирши.
1.2.0 alpha rev. 655
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, Cyberax, Вы писали:
C>Робот, который может полностью имитировать VladD2 в форуме
Ну это не критерий. Навеяло Дугласа Адамса.
-- Да, вставим электронный мозг, -- поддержал Cyberax, -- простенький
тебе пойдет.
-- Простенький?!... -- завыл VladD2.
-- Ага, сказал eao197 с внезапной злобной ухмылкой, --
запрограммируйте, чтобы он мог говорить "Что?", "Nemerle rules" и "C++ suxxx",
никто и не заметит разницы.
-- Что?! -- крикнул VladD2.
-- Вот, я же говорил, -- сказал eao197 и вдруг завопил от боли, а
Wolfhound опустил руку из-за его спины.
-- Я замечу разницу, -- сказал VladD2.
-- Нет, -- сказал Cyberax, -- мы запрограммируем так, что не заметишь.
McSeem
Я жертва цепи несчастных случайностей. Как и все мы.
Здравствуйте, MikhasSergei, Вы писали:
MS>Собственно и вопрос — как вы себе представляете искусственный интеллект? MS>Хотелось бы услышать мнения не специалистов.
Паровоз мудро устроен, но он этого не
сознает, и какая цель была бы устроить
паровоз, если бы на нем не было машиниста?
О. Митрофан Сребрянский
Таким образом, вопрос сводится к тому, может ли самый сложный алгоритм с терабайтами памяти и терагерцами скорости иметь сознание, оставаясь при этом классической детерминированной машиной Тьюринга? Некий авторитет, Роджер Пенроуз утверждает что нет, не может, вне зависимости от сложности. В своей популярной книге "Новый ум короля" он весьма убедительно рассуждает (но тем не менее не доказывает!), что чисто детерминистской машины (коими сейчас являются абсолютно все вычислительные средвства и программы) не достаточто для имитации даже самого примитивного интеллекта, способного к логическим выводам — нужен переход на принципиально иной уровень, квантовый-шмантовый там.
Вообще, это вопрос очень философский — может ли разум полностью осознать что такое разум? Это что-то типа "чтобы понять рекурсию надо сначала понять рекурсию". Если может, то этот разум способен создать интеллект, эквивалентный по мощности себе самому, а это сводится к теологии — человек есмь бог. Если не может осознать, то... это еще не значит, что не может создать. Может у него чисто случайно получится. В конце концов, "все можно наладить, если вертеть в руках достаточно долго" (c).
McSeem
Я жертва цепи несчастных случайностей. Как и все мы.
Здравствуйте, MikhasSergei, Вы писали:
MS>Собственно и вопрос — как вы себе представляете искусственный интеллект? MS>Хотелось бы услышать мнения не специалистов.
Здравствуйте, Sinclair, Вы писали:
K>>Просто прежде чем говорить о том, что ИИ должен уметь "оперировать абстрактными понятиями", мы должны уточнить, что же это за абстрактные понятия и как их представлять. Я вот высказал гипотезу, что удобно представлять абстрактные понятия в НС. Хотя бы потому, что уже есть НС, способная оперировать абстрактными понятиями. S>Гм. Эта гипотеза ничуть не хуже гипотезы о том, что громкоговоритель удобнее всего реализовать как речевой аппарат человека. Хотя бы потому, что уже есть речевой аппарат, способный произносить все необходимые звуки.
На самом деле, доля истины в этом есть. Физики узнали, что звук — это волна, распространяющаяся в газообразной среде. До этого они дошли изучафя различные звуки. Ну, а когда уже понятно, что есть звук, стало в принципе возможно построить громкоговоритель. Но вот чтобы узнать, что такое звук, надо было поэкспериментировать с уже существующими источниками (не обязательно речевым аппаратом).
S>По делу: есть два основных подхода к представлению "абстрактных понятий": фреймы и семантические сети.
Насколько я знаю, все попытки построить ИИ успешно провалились. Те же фреймы появились уже достаточно давно. Причём они во многом повлияли на возникновение ООП. Фреймы, хоть штука и мощная и позволяет системе гибко развиваться, но всё же в определённых пределах, заложенных программистом. Т.е. система построенная на фреймах всегда "мыслит" в одних и тех же терминах, не пытаясь придумать новых. Я же не считаю такую систему ИИ.
K>>А я и не говорил про какие-то конкретные инстинкты. Просто я выдвигаю гипотезу, что ИИ без самосознания — не есть настоящий ИИ. S>Это не гипотеза, а твоя аксиома. Совершенно непонятно, зачем интеллекту самосознание. Или как доказать, что оно ему не нужно.
Переформулирую гипотезу так: любая теорияя ИИ, не берущая за аксиому тот факт, что интеллект невозможен без самосознания, не способна создать полноценного ИИ. Правда, ни доказательства, ни опреровержения нет. И не будет ещё очень долго.
Здравствуйте, McSeem2, Вы писали:
MS>может ли самый сложный алгоритм с терабайтами памяти и терагерцами скорости иметь сознание, оставаясь при этом классической детерминированной машиной Тьюринга? Некий авторитет, Роджер Пенроуз утверждает что нет, не может, вне зависимости от сложности.
Есть мнение, что при увеличении сложности машины, увеличении объема и сложности входных потоков, увеличении параллельности их обработки и увеличении объема хранимых и используемых в алгоритме данных, на результат алгоритма начинают действовать в большей степени вероятностные процессы, а степень детерменизма существенно падает.
Тогда Тьюринг сможет отдохнуть, а доказательство Пенроуза будет представлять только академический интерес.
McSeem2 wrote: > В своей популярной книге "Новый ум короля" он весьма > убедительно рассуждает (но тем не менее не доказывает!), что чисто > детерминистской машины (коими сейчас являются абсолютно все > вычислительные средвства и программы) не достаточто для имитации даже > самого примитивного интеллекта, способного к логическим выводам — нужен > переход на принципиально иной уровень, квантовый-шмантовый там.
Не убедительно. Даже близко не убедительно. Да еще и со сплошными
софизмами по всей книге.
Вопрос "можно ли эмелировать разум на вычислительном устройстве" в
текущем понимании эквивалентен "есть ли у человека сверхъестественное
сознание". Если считать, что нет — то мозг можно полностью эмулировать.
Используя теорему Геделя, он доказывает, что существует инструкция,
способная остановить ("сломать") любой детерминистский компьютер
достаточно сложной структуры. Если человеческое мышление детерминировано
логикой, то человечество в целом следует видеть, как аристотелев
(детерминистский) компьютер. Поскольку человечество может
существовать вечно, такой компьютер будет абсолютно безошибочен, в
потенции, если не в актуальности. Но существование такого компьютера
противоречит теореме Геделя.
Кто сказал, что возможности человека бесконечны?
Соответственно все рассуждение Пенроуза можно свести к такой фразе:
"Человек неалгоритмизируем, а следовательно не алгоритмизируем".
C>Вопрос "можно ли эмелировать разум на вычислительном устройстве" в C>текущем понимании эквивалентен "есть ли у человека сверхъестественное C>сознание". Если считать, что нет — то мозг можно полностью эмулировать.
Нет он всего лишь эквивалентен вопросу является ли мозг вычислительным устройством.
Здравствуйте, konsoletyper, Вы писали:
K>Просто прежде чем говорить о том, что ИИ должен уметь "оперировать абстрактными понятиями", мы должны уточнить, что же это за абстрактные понятия и как их представлять.
Приведу простейший пример. Если положить банан за решётку, до которого обезьяне не дотянуться и рядом палку, обезьяна возьмёт палку и достанет банан. А если палку не положить, обезьяна походит вокруг и пойдёт искать банан в другом месте. Человек же пойдёт искать палку. Почему? Потому что в его сознании всегда есть некая абстрактная палка и масса других физически не существующих вещей. Если палки поблизости нет, у человека всегда есть выбор, искать палку дальше в физическом пространстве или двигаясь в мире абстрактного думать от чего и чем можно отпилить, отколоть, отвинтить предмет подходящей формы.
Простейшим видом абстрактных понятий являются просто воображаемые предметы физического мира и действия с ними. Наверное, первым видом абстрактных понятий не из физического мира стали числа и операции с ними. Потом в ход пошли физические величины. Сейчас уже до алгоритмов добрались.
K>Я вот высказал гипотезу, что удобно представлять абстрактные понятия в НС. Хотя бы потому, что уже есть НС, способная оперировать абстрактными понятиями. А вот на прологе, как не старались, абстрактные понятия так и не смогли нормально представить. Тут надо понимать, что любая программа на любом языке оперирует абстрактными понятиями, но делает это так, как научил программист и совершенно не может абстрагироваться. Мозг же — это весьма интересная штука. Адаптироваться ко всему — одна из самых замечательных его черт.
Причина неудачи пролога в том, что абстрактный мир без физического существовать не может. Внутри абстрактного мира знание ограничено. Только взаимодействие с физическим миром может привнести что-то новое.
K>Нейроны обрабатывают информацию, которая дискретна по природе (в силу дискретности электрического заряда).
Вы хотите сказать, что нейрон реагирует на каждый электрон?
K>И, кстати, зачем обрабатывать бинарную инфу?
Наш разум оперирует дискретными понятиями. Нас интересует, например, есть дождь или нет, сильный или не сильный. Нас не интересует число литров на квадратный метр в секунду с аналоговой точностью. Мы принимаем решение на основе дискретных данных. Нейронная сеть для реализации такой логики избыточна и ненадёжна. Человек постоянно ошибается, выполняя дискретные операции, как например умножение чисел в столбик или набор текста. На мой взгляд, идеальным бы было сочетание аналоговых и дискретных элементов обработки информации и выбор соответствующей элементной базы для каждой подмодели физического или абстрактного мира поотдельности. Но, возможно, это бы стало излишним усложнением и на практике проще сделать выбор в ту или иную сторону.
_>>Да не разобраться человеку с таким сложным объектом. K>Чловек может всё. Можно позвать на помощь компы, которые позволят упорядочить сложнейший статистический материал и т.д. Вот если пещерному челу показать комп, он решит, что такое могли построить только боги (или демоны). Так что давайте не будем пещерными людьми.
И зачем это нужно человеку? Зачем ему разбираться в том, как работает нейронная сеть, за что отвечают отдельные нейроны и связи между ними, какие задавать начальные условия и как её обучать? Гораздо проще заставить компы самим принимать решение о структуре этой сети, например на основе генетических алгоритмов. Это как раз является следующим шагом на пути от пещерных людей.
K>А я и не говорил про какие-то конкретные инстинкты. Просто я выдвигаю гипотезу, что ИИ без самосознания — не есть настоящий ИИ.
Виртуальная модель мира внутри нервной системы любого организма, о которой я говорил, всегда включает сам этот организм. Человек воспринимает себя на сознательном уровне. Вообще, для разума это не обязательно, если в его функции не входит заниматься самосовершенствованием. А если входит, то думаю, искуственному интеллекту целесообразнее осознавать себя гораздо в большей степени, чем человек. В любом случае, самосознание может появиться лишь на определённом уровне развития модели мира.
K>При этом мотивация и самосознание, хотя и связаны друг с другом, но не одно и то же. А в качестве мотива можно было бы задать что угодно. Например, делаем ИИ с мотивацией к распознаванию текстов, и он, имея такую мотивацию, изучит естественную речь, лишь бы как можно точнее распознавать буквы. Только в том и вопрос, как определить такую мотивацию.
Определить в смысле задать? Думаю, заложить какую-то прикладную мотивацию на этапе, когда организм только начинает формироваться не только нецелесообразно, но и невозможно (если мы говорим о разуме, а не ИИ в более примитивном смысле). На начальном этапе ему нужна любая мотивация, стимулирующая его к взаимодействию с внешним миром. Прежде чем можно будет задать что-то прикладное, ИИ должен будет развиться до уровня осознания мира и овладеть коммуникационными навыками, например, речью.
Здравствуйте, Sinclair, Вы писали:
S>Здравствуйте, wonderboy, Вы писали: W>>"исследовать <такую-то> научную проблему" W>>"предложить философскую концепцию по <такому-то> вопросу" S>мой опыт получения образования сводится к тому, что подобные задачи для начинаюших близки к неразрешимым. Увы — к старшим курсам как правило удается выделить тот весьма ограниченный набор образцов, который подразумевается под "правильными" ответами на подобные вопросы. После этого решение таких проблем ничуть не сложнее стихосложения, и автоматизация его тоже ничуть не лучше чем автоматические вирши.
Вы правильно начали. В том-то и дело (опять таки имхо), что на самом начальном уровне ИИ должен был бы уточнить (самостоятельно!) что имеется ввиду под приведенными выше фразами (например, спрашивая у человека). Далее — процесс развития, необходимый для решения задачи. На более высоком уровне должен был бы уже попросить ограничить задачу, т.к. она слишком общая, неясно что требуется — статья, например, или диссертация.
А затем уже предложить какое-то решение. Вот в чем хитрость процесса работы настоящего интеллекта, в моем понимании.
Здравствуйте, konsoletyper, Вы писали:
K>Насколько я знаю, все попытки построить ИИ успешно провалились.
Все зависит от того, что понимать под "ИИ", и что понимать под "провалились". K>Те же фреймы появились уже достаточно давно. Причём они во многом повлияли на возникновение ООП. Фреймы, хоть штука и мощная и позволяет системе гибко развиваться, но всё же в определённых пределах, заложенных программистом.
Ничего подобного. Фрейм — это, в первую очередь, математическая абстракция, и уже потом какая-то ее реализация. K>Т.е. система построенная на фреймах всегда "мыслит" в одних и тех же терминах, не пытаясь придумать новых.
Ну, во-первых, глупо ожидать, что система будет "пытаться придумать" что-то.
Во-вторых, совершенно непонятно, с чего ты решил, что фреймовый способ представления знаний чем-то ограничен?
Между прочим, и фреймы и семантические сети появились именно как результаты исследований человеческого мышления. Фреймы пытаются формализовать наши интуитивные представления о том, как мы храним "образы" в сознании. K>Я же не считаю такую систему ИИ.
K>Переформулирую гипотезу так: любая теорияя ИИ, не берущая за аксиому тот факт, что интеллект невозможен без самосознания, не способна создать полноценного ИИ. Правда, ни доказательства, ни опреровержения нет. И не будет ещё очень долго.
Ну, для начала невредно было бы позаботиться об опровержимости своей гипотезы. Т.е. придумать, какой критерий может свидетельствовать о ее несовместимости с действительностью. Пусть этот критерий будет крайне сложно вычислим (вон у Пенроуза есть план эксперимента с разнесенными на расстояния порядка планетных орбит компонентами. Пока на такое нет денег, но по крайней мере мы знаем, чего ждем), пусть не будет способа однозначно доказать эту гипотезу. Но формулировка неопровержимых гипотез — дело малоконструктивное.
1.2.0 alpha rev. 655
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, FR, Вы писали:
FR>Здравствуйте, Cyberax, Вы писали:
C>>Вопрос "можно ли эмелировать разум на вычислительном устройстве" в C>>текущем понимании эквивалентен "есть ли у человека сверхъестественное C>>сознание". Если считать, что нет — то мозг можно полностью эмулировать.
FR>Нет он всего лишь эквивалентен вопросу является ли мозг вычислительным устройством.
Что, в свою очередь, эквивалентно предыдущему вопросу. Т.к. вычислительное устройство не обладает сверхъестественным сознанием, а человеку нужно или быть вычислительным устройством или...
FR wrote: > C>Вопрос "можно ли эмелировать разум на вычислительном устройстве" в > C>текущем понимании эквивалентен "есть ли у человека сверхъестественное > C>сознание". Если считать, что нет — то мозг можно полностью эмулировать. > Нет он всего лишь эквивалентен вопросу является ли мозг вычислительным > устройством.
Нет. Камень вычислительным устройством не является, однако поведение
брошенного камня мы можем рассчитать на компьютере (хотя бы и с помощью
имитации движения всех молекул камня).
Здравствуйте, FDSC, Вы писали:
FR>>Нет он всего лишь эквивалентен вопросу является ли мозг вычислительным устройством.
FDS>Что, в свою очередь, эквивалентно предыдущему вопросу. Т.к. вычислительное устройство не обладает сверхъестественным сознанием, а человеку нужно или быть вычислительным устройством или...
Здравствуйте, Cyberax, Вы писали:
C>Нет. Камень вычислительным устройством не является, однако поведение C>брошенного камня мы можем рассчитать на компьютере (хотя бы и с помощью C>имитации движения всех молекул камня).