Я попросил бы обращаться ко мне как к нему, а не к ней
CU>гы-гы, т.е. нещадно тормозить при умножении трёх четырехзначных чисел, а на предложение вычислить корень 5-й степени из 10-значного числа вообще посылать на йух? Не, мне такой ИИ не нужен...
Зачем тогда тебе вообще ИИ? Купи калькулятор: губки не дует, корни считает
Здравствуйте, Cyberax, Вы писали:
C>Распознавание статичных образов — это уже, по сути, решенная задача. Естественно, если образы достаточно точно определены.
Ни фига она не решенная. Распознавание букв на двухмерной картинке и то далеко от идеала, не говоря уже о сложных трехмерных объектах в сложном окружении.
Здравствуйте, FR, Вы писали:
FR>Все таки есть формальное математическое понятие алгоритма, и компьютеры именно его и реализиуют (машина Тьюринга). Вот она к сожалению (или к счастью) достаточно ограничена.
Ограничена не столько машина Тьюринга, сколько наши способы формализации задачи.
Здравствуйте, NikeByNike, Вы писали: B>>В определенных обстоятельствах, но ведь не во всех... NBN>По моему — либо самоубийство в интересах социума, либо из-за чувства неудачливости — что тоже в интересах социума, либа из-за перенаселённости — тоже из-за социума.
По-моему, самоубийства, гомосексуализм, и Russian Music Awards — наша плата за приспособляемость. У кошек нет ничего из этого, но они "рационализированы" к очень узкому диапазону условий. Чуть измени им окружение — и всё, весь их набор поведенческих стереотипов окажется бесполезным. В человека хаотичность встроена для обеспечения гибкости.
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, MescalitoPeyot, Вы писали:
CU>>"Ну что конкретно ты имела в виду?.." (с)?
MP>Я попросил бы обращаться ко мне как к нему, а не к ней
Не обижайтесь — это слова из песенки
CU>>гы-гы, т.е. нещадно тормозить при умножении трёх четырехзначных чисел, а на предложение вычислить корень 5-й степени из 10-значного числа вообще посылать на йух? Не, мне такой ИИ не нужен...
MP>Зачем тогда тебе вообще ИИ? Купи калькулятор: губки не дует, корни считает
Доказательство теорем, составление алгоритмов для инженерных и иных расчётов, различное планирование и корректировка планов в зависимости от изменившихся условий, разработка промышленных технологий и многое другое — не вижу здесь места для эмоций (даже при выполнении этих задач людьми).
Для меня "тест на ИИ" — это когда система сама себя "переработает", т.е. "перепишет" с использованием найденных более оптимальных алгоритмов и структур данных. А потом будет анализировать свои процессы и заниматься этим постоянно "в фоне". А ещё лучше вместе с предложением новой элементной базой и "технологической картой" её производства
Здравствуйте, Sinclair, Вы писали:
S>По-моему, самоубийства, гомосексуализм, и Russian Music Awards — наша плата за приспособляемость. У кошек нет ничего из этого, но они "рационализированы" к очень узкому диапазону условий. Чуть измени им окружение — и всё, весь их набор поведенческих стереотипов окажется бесполезным. В человека хаотичность встроена для обеспечения гибкости.
Это можно сказать по другому: в результате эволюции человек получил возможность разумом контролировать свои инстинктивные "позывы" (если человек "в сознании") — да, мы получили большую "приспособляемость". Но учитывая мощь "серого вещества" и несовершенства системы его использования (разума? сознания?) — мы получаем постоянные "девиации" не то что от "инстинктивного", "рационального" или "разумного" но и вообще "от всего".
Здравствуйте, cl-user, Вы писали:
CU>Это можно сказать по другому: в результате эволюции человек получил возможность разумом контролировать свои инстинктивные "позывы" (если человек "в сознании") — да, мы получили большую "приспособляемость". Но учитывая мощь "серого вещества" и несовершенства системы его использования (разума? сознания?) — мы получаем постоянные "девиации" не то что от "инстинктивного", "рационального" или "разумного" но и вообще "от всего".
С чего ты взял, что это результат несовершенства? Идёт просто постоянный перебор возможных вариантов поведения. Найдётся /еще один новый/ вариант поведения, позволяющий особи выжить — хорошо. Чем больше разных моделей поведения тем больше вероятность того, что во время кризиса найдётся модель обеспечивающая выживаемость. Генетический алгоритм, однако.
Вот представь, например, нападают на нас инопланетяне-гомосеки, и, бац, оказывается, чтобы выжыть нужно быть гомиком
CU>Для меня "тест на ИИ" — это когда система сама себя "переработает", т.е. "перепишет" с использованием найденных более оптимальных алгоритмов и структур данных.
Это еще более расплывчатое определение ИИ, чем тест Тьюринга. Да и что значит более оптимальный алгоритм?
Здравствуйте, MescalitoPeyot, Вы писали:
CU>>Для меня "тест на ИИ" — это когда система сама себя "переработает", т.е. "перепишет" с использованием найденных более оптимальных алгоритмов и структур данных.
MP>Это еще более расплывчатое определение ИИ, чем тест Тьюринга.
Не спорю. Зато без подвохов типа "закос под блондинку".
MP>Да и что значит более оптимальный алгоритм?
Это тоже ИИ решать
Всё что я имел в виду — возможность само-модификации (само-оптимизации/автонастройки для решения конкретных задач/под конкретные условия).
ИИ это под силу (в отличие от человеческого сознания )
Здравствуйте, yoriсk.kiev.ua, Вы писали:
YKU>Так илии иначе — с биологической точки зрения человек — исключительно удачное существо.
С биологической точки зрения это нужно ещё проверить временем. Если челы загадят природу настолько, что вымрут через тысячу лет, то такое существо никак нельзя признать удачным, в отличие от Antarctic krill, которая как вид живёт несколько дольше и вымирать не собирается.
MP>>Да и что значит более оптимальный алгоритм?
CU>Это тоже ИИ решать
А если ИИ решит, что ничегониделание оптимальный алгоритм? Такой ИИ уже создан: int main () { return 0; } Или, например, int main() { printf("49"); return 49; }
CU>Всё что я имел в виду — возможность само-модификации (само-оптимизации/автонастройки для решения конкретных задач/под конкретные условия).
CU>ИИ это под силу (в отличие от человеческого сознания )
А человеческое сознание не самонастраивается под конкретные условия и задачи? Сознание Маугли, сознание слепых от рождения?
Здравствуйте, Cyberax, Вы писали:
C>Здравствуйте, McSeem2, Вы писали:
M>>>А вообще глобальная философская проблема — самосознание ИИ станет настоящим ИИ только когда осознает свое существование. MS>>Это высказывание по сути эквивалентно тому, что для получения настоящего ИИ надо в машину вдохнуть душу. C>Почему? При достаточной сложности "железа", поддерживающего ИИ, самосознание может возникать самостоятельно.
Интересно как? Самосознание возникает как результат самонаблюдения. Т.е. помимо прочих потоков информации, подаваемых на входы компа/автомата/т.п., на котором реализуется ИИ, на один из входов должны подаваться "восприятия" самого процесса "мышления", осуществляемого ИИ. Т.е. должен быть еще один компонент/автомат, "наблюдающий" за самими процессами (а не их результатами) в ИИ, и этот компонент/автомат должен подавать на один из входов ИИ то, что он "наблюдает". Но возникает вопрос: на основании чего ИИ сможет "сделать вывод", что с этого входа подается информация именно о "самонаблюдении", а не наблюдении чего-то внешнего? Единственная возможность сдалать этот "вывод" заключается в следующем: ИИ должен "заметить", что когда он "думает" о том-то, с этого входа идет одна информация, а когда он "думает" о том-то другом — идет другая и т.п. Только так он сможет "догадаться", что с этого входа идет информация именно о "самовосприятии". Короче, для того, чтобы "осознать" эти наблюдения в качестве самонаблюдений он должен быть способен "узнавать" о том, что именно он в данный момент "думает" и "осознавать", что это "думает" именно он. Но здесь возникает "рекурсивный парадокс", ведь это означает, что для того, чтобы у ИИ появилось самосознание (на основе самонаблюдения) он должен уже обладать самосознанием!
Кстати, а что вообще такое "интеллект"? Раз уж зашел разговор об искусственном интеллекте, то подразумевается, что, хотя бы отчасти, понятно что такое неискусственный интеллект. Считается, что о естественном интеллекте мы пока что почти ничего не знаем, т.к. устройство головного мозга еще мало изучено и т.п. И в то же время мы пользуемся этим понятием. Более того, у нас, на самом деле, даже есть критерий отличия интеллекта от неинтеллекта. Например, для нас очевидно, что электрический чайник, автоматически выключающийся при кипении воды, не обладает интеллектом. Для программистов, также, очевидно, что, например, программа, вычисляющая корни квадратного уравнения, тоже не имеет ничего общего с интеллектом. Интересно то, что многие люди, далекие от компьютеров и программирования в частности, считают, что компьютеры по настоящему думают. Этим людям, например, очень трудно понять в чем разница отсканированного текста от результата его распознавания файнридером и т.п. Им может быть не понятно, зачем вообще нужно что-то еще распознавать, ведь вот он текст на мониторе/в компьютере. (Некоторые особо наивные, видел таких, даже впечатывают звездочки в поле пароля ) Т.е. им кажется, что компьютер думает, причем думает буквами, словами, текстами и т.п. — также как человек. И очень трудно понять, что все это лишь фикция, видимость — та же ситуация, что и с чайником...
Вернусь к критерию различения интеллекта от неинтеллекта и представлениям о том, что об интеллекте мы, как будто, пока ничего не знаем. Как вообще могло возникнуть понятие "интеллект", если мы о нем ничего не знаем (что такое "альгрден", например — никто не знает, а "интеллект" — знает)? Понятно, что это понятие у нас возникает в результате самонаблюдения — интеллект мы обнаруживаем в самом себе непосредстваенно, а не в результате исследований функционирования головного мозга. Под интеллектом подразумевается, в частности, способность решать задачи, генерировать идеи и т.п. Во времена, когда компьютеры только появлялись, многим исследователям казалось, что если мы сделаем машину, которая сможет решать сложные математические задачи, то это будет ИИ. Ход размышления был примерно такой: чтобы решить такие-то задачи мне нужно активно размышлять, т.е. применять свой интеллект, без этого я их решить не смогу. Т.е., если появиться что-то, что может решить эти задачи, то можно быть уверенным, что это что-то имеет интеллект (ведь мне он нужен для решения этих задач). На сегодняшний день создано множество приложений, "способных решать" множество сложных математических задач, включая решение систем диф. уравнений — причем в символьном виде. Однако никто, кто хотя бы в общих чертах понимает, что из себя эти приложения внутри представляют, не будет считать их интеллектом. По одной простой причине: процессы "решения" этих задач даже близко ничего общего не имеют с тем, что я обнаруживаю у себя в результате самонаблюдения в качестве интеллекта — это просто сложные навороченныйе чайники, ничего более.
У нас есть понятие "интеллект", которое возникает в результате его непосредственного наблюдения внутри нас самих. И у нас есть критерий отличия интеллекта от иммитации. Точнее, мы можем ошибаться в том, содержит ли что-то интеллект или нет, но когда мы с очевидностью обнаруживаем, что не содержит — мы никогда не ошибаемся! Вот такой вот односторонний критерий... Тест Тьюринга — это чисто эмпирический критерий для определения наличия интеллекта. Он должен выполняться бесконечно долго, чтобы не было ошибки, либо до тех пор, пока не будет выяснено, что интеллекта нет (но тут можно ошибиться). Этот тест, имхо, недостаточен и не необходим. Если на другом конце сидит человек, изображающий поведение компьютера, то этому человеку в интеллекте будет отказано... Точно определить, что интеллекта нет, можно только тогда, когда знаешь внутреннее "устройство" тестируемого объекта и его внутренние процессы. У меня есть подозрение, что всегда, когда это устройство и его процессы строго детерминированы и определены внешними воздействиями и кто-то этот факт обнаружит, то этому человеку станет очевидно, что никакого мышления тут нет, а это просто сложный чайник... Также и для людей, далеких от компьютеров, когда они начинают всерьез изучать программирование и т.п., становиться очевидно, что компьютер не мыслит!
Что характерно для интеллекта, каким мы его в себе обнаруживаем? Это способность к творчеству, созданию новых идей. Но эти понятия, похоже, невозможно точно определить в словах (выразить через другие понятия), однако, думаю, понятно о чем идет речь. Все это связано с понятием "свобода". Можно предположить, что в мышлении, помимо детерминированной составляющей, содержится некий случайный процесс и именно он отвечает за творчество и свободу. И попытаться смоделировать мышление, создав ИИ, который будет основан, например, на случайных числах. Но это будет эквивалентно тому, что мы создадим строго детерминированное устройство, на один из входов которого подается поток из генератора случайных чисел. Вопрос, будут ли применимы к такому устройству понятия "творчество" и "свобода"...
Вот будет забавно, когда Мы по винтикам раскрутим человеческий мозг и узнаем, как он работает, то Мы вдруг поймем, что тоже не обладаем интеллектом... Типа продвинутый чайник из нейронов.
Здравствуйте, Yagg, Вы писали:
Y>Здравствуйте, yoriсk.kiev.ua, Вы писали:
YKU>>Так илии иначе — с биологической точки зрения человек — исключительно удачное существо. Y>С биологической точки зрения это нужно ещё проверить временем.
Не, не нужно. "Успешность" существует "здесь и сейчас". Ну и "проверить временем" в биологическом смысле — это где-то не меньше пары сот тыс. лет.
Y>Если челы загадят природу настолько, что вымрут через тысячу лет, то такое существо никак нельзя признать удачным, в отличие от Antarctic krill, которая как вид живёт несколько дольше и вымирать не собирается.
Изменение условий окружающей среды(трубы чадят или метеориты падают — пофиг из-за чего) в условиях задачи не фигурирует.
Здравствуйте, MescalitoPeyot, Вы писали:
MP>>>Да и что значит более оптимальный алгоритм?
CU>>Это тоже ИИ решать
MP>А если ИИ решит, что ничегониделание оптимальный алгоритм?
С людьми хуже — их продолжают кормить. ИИ — просто "перезапустить" (возможно — с откатом или исправлением последнего патча )
CU>>Всё что я имел в виду — возможность само-модификации (само-оптимизации/автонастройки для решения конкретных задач/под конкретные условия).
CU>>ИИ это под силу (в отличие от человеческого сознания )
MP>А человеческое сознание не самонастраивается под конкретные условия и задачи? Сознание Маугли, сознание слепых от рождения?
Это "один раз и навсегда", а не "вот здесь — я Маугли, вот здесь — слепой". Причём в динамике для каждого отдельного "решения".
Мы не знаем, как мы обрабатываем данные. Мы не можем опуститься ниже определённого уровня абстракций (и этот уровень довольно высок). ИИ сможет всё
Здравствуйте, Кондраций, Вы писали:
К>Т.е. распознавание образов достигло такого уровня, что любую мышь на любом фоне при любом освещении можно распознать так же надёжно, как и кошка это делает? (не обращаем внимания на невизуальные раздражители)
Кошка, помнится, бросается даже на поскребывание ногтем, особенно если она самого ногтя не видит. А уж на исскуственных мышей — за милую душу. распознать мышку, имея слуховые и видеосенсоры с чуствительностью не хуже кошачих с точностью кошки неразрешимой задачей не является.
... << RSDN@Home 1.2.0 alpha rev. 725 on Windows Vista 6.0.6000.0>>
Здравствуйте, GlebZ, Вы писали:
GZ>Точно также человек знает что ему не стоит умирать. Это сидит очень глубоко в подсознании, и даже под гипнозом он это делать как-то не спешит. Другое дело, что человек может управлять своими моделями поведения. Стоит только подменить понятие о смерти понятием о вечной жизни, смертник готов. Или человек ведомый какой-то впихнутой в него моделью, может нажать на ядреную кнопку. Но в отличии от собак — человек может самостоятельно создавать модели. И это и есть самое опасное в ИИ. Человек может мысленно создать модель которая потом будет отражаться на поведении. Он может даже управлять рефлексами. Ни одно животное не полезет узнавать, что такое, например, вулкан. В нем заложено, что любое непонятное нужно квалифицировать как опасность. Или страх высоты. Он у всех есть. Однако человек вполне может этот рефлекс обойти и обходит.
Как быть с самоубийством китов? Или некоторых видов птиц при потере партнера?
... << RSDN@Home 1.2.0 alpha rev. 725 on Windows Vista 6.0.6000.0>>