Здравствуйте, 0K, Вы писали:
0K>Хотя, взглянувшему на код становится понятно, что эта программа не имеет сознания.
Докажешь? Или это опять твое сознание сказало что там нет сознания?
0K>И теперь мы подошли к самому интересному вопросу (который, давеча, уже затрагивали
): как определить, что объект наделен сознанием? Можем ли мы придумать такой тест?
0K>Тест должен безошибочно определять где алгоритмическая последовательность а где сознательные рассуждения.
0K>Какие будут предложения?
Для начала определиться с тем, что такое сознательные рассуждения и чем они отличаются от алгоритмической последовательности.
Здравствуйте, cvetkov, Вы писали:
C>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
): как определить, что объект наделен сознанием? Можем ли мы придумать такой тест?
Это принципиально невозможно. Сознание имеет смысл только изнутри. Ты наверняка считаешь себя обладателем сознания, но для тех, кто наблюдает тебя со стороны, ты просто еще один флуд-робот.
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
Старый тест не должен был отличать алгоритм от людей.
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
Машина проигрывает в задачах синтеза.
Поэтому стоит задавать вопросы, требующие что-то "генерации контента" специфичного для человека — например — расскажите, почему вам жалко или не жалко негров в Африке (если человек не знает о них, рассказать в нескольких предложениях), какое животное на ваш взгляд самое смешное и почему и т.п.
Можно просто попросить пересказать некий отрывок из любой книги своими словами и выразить свое отношение (что-то вроде школьного сочинения) и т.п.
Так же насколько я знаю, сложно даются для машины вопросы, с пространственно-временными отношениями — один из простейших вариантов таких вопросов это распознавание образов (CAPTCHA).
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает.
т.е. чувства юмора у вас нет?
0K>Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
я так понимаю вы не знаете что такое тест Тьюринга и что он тестирует?
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, Mystic, Вы писали:
M>>Тот же самый тест, только надо людей поумнее взять.
0K>А конкретно. Сколько IQ нужно?
Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, Mystic, Вы писали: M>>Тот же самый тест, только надо людей поумнее взять. 0K>А конкретно. Сколько IQ нужно?
IQ ничего не измеряет. А вообще, беседы не впечатлили, если честно. Попробовал сам:
1> Hi
2> Hi
1> What do you like?
2> Food.
1> What kind of food do you prefer?
2> Fast food.
1> Is it tasty?
2> Yes.
1> But most of people think that fast food is harmful.
2> No kidding.
с учетом моего английского, создается впечатление, что бот просто научился всех посылать.
Здравствуйте, samius, Вы писали:
S>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
Чтобы определять наличие сознания надо вначале определить, что такое сознание
Здравствуйте, 0K, Вы писали:
0K>Какие будут предложения?
Оценивать эмпатию, например, задавая вопросы морально шокирующего содержания и замеряя время отклика. Если бот не мыслит также как человек, то ему будет крайне затруднительно адекватно проходить подобные тесты.
Здравствуйте, Mystic, Вы писали:
M>Здравствуйте, samius, Вы писали:
S>>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
M>Чтобы определять наличие сознания надо вначале определить, что такое сознание
Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
Здравствуйте, samius, Вы писали:
S>Здравствуйте, Mystic, Вы писали:
M>>Здравствуйте, samius, Вы писали:
S>>>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
M>>Чтобы определять наличие сознания надо вначале определить, что такое сознание S>Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
Раз нет определение, его вполне можно дать на основе теста Тьюринга. Например, Тьюринговым сознанием назовем...
Здравствуйте, Mystic, Вы писали:
M>Здравствуйте, samius, Вы писали:
M>>>Чтобы определять наличие сознания надо вначале определить, что такое сознание S>>Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
M>Раз нет определение, его вполне можно дать на основе теста Тьюринга. Например, Тьюринговым сознанием назовем...
Это подстава Тьюринга.