Здравствуйте, 0K, Вы писали:
0K>Хотя, взглянувшему на код становится понятно, что эта программа не имеет сознания.
Докажешь? Или это опять твое сознание сказало что там нет сознания?
0K>И теперь мы подошли к самому интересному вопросу (который, давеча, уже затрагивали
): как определить, что объект наделен сознанием? Можем ли мы придумать такой тест?
0K>Тест должен безошибочно определять где алгоритмическая последовательность а где сознательные рассуждения.
0K>Какие будут предложения?
Для начала определиться с тем, что такое сознательные рассуждения и чем они отличаются от алгоритмической последовательности.
Здравствуйте, cvetkov, Вы писали:
C>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
): как определить, что объект наделен сознанием? Можем ли мы придумать такой тест?
Это принципиально невозможно. Сознание имеет смысл только изнутри. Ты наверняка считаешь себя обладателем сознания, но для тех, кто наблюдает тебя со стороны, ты просто еще один флуд-робот.
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
Старый тест не должен был отличать алгоритм от людей.
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает. Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
Машина проигрывает в задачах синтеза.
Поэтому стоит задавать вопросы, требующие что-то "генерации контента" специфичного для человека — например — расскажите, почему вам жалко или не жалко негров в Африке (если человек не знает о них, рассказать в нескольких предложениях), какое животное на ваш взгляд самое смешное и почему и т.п.
Можно просто попросить пересказать некий отрывок из любой книги своими словами и выразить свое отношение (что-то вроде школьного сочинения) и т.п.
Так же насколько я знаю, сложно даются для машины вопросы, с пространственно-временными отношениями — один из простейших вариантов таких вопросов это распознавание образов (CAPTCHA).
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, cvetkov, Вы писали:
C>>тут проблема видимо в том что и люди тест тьюринга скоро перестанут проходить.
0K>Вот именно. Люди бывают разных способностей (в разных сферах) и только от этого их ценность как личности не страдает.
т.е. чувства юмора у вас нет?
0K>Именно по этому и нужен новый тест — старый не отличает алгоритм от людей с плохими способностями.
я так понимаю вы не знаете что такое тест Тьюринга и что он тестирует?
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, Mystic, Вы писали:
M>>Тот же самый тест, только надо людей поумнее взять.
0K>А конкретно. Сколько IQ нужно?
Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
Здравствуйте, 0K, Вы писали:
0K>Здравствуйте, Mystic, Вы писали: M>>Тот же самый тест, только надо людей поумнее взять. 0K>А конкретно. Сколько IQ нужно?
IQ ничего не измеряет. А вообще, беседы не впечатлили, если честно. Попробовал сам:
1> Hi
2> Hi
1> What do you like?
2> Food.
1> What kind of food do you prefer?
2> Fast food.
1> Is it tasty?
2> Yes.
1> But most of people think that fast food is harmful.
2> No kidding.
с учетом моего английского, создается впечатление, что бот просто научился всех посылать.
Здравствуйте, samius, Вы писали:
S>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
Чтобы определять наличие сознания надо вначале определить, что такое сознание
Здравствуйте, 0K, Вы писали:
0K>Какие будут предложения?
Оценивать эмпатию, например, задавая вопросы морально шокирующего содержания и замеряя время отклика. Если бот не мыслит также как человек, то ему будет крайне затруднительно адекватно проходить подобные тесты.
Здравствуйте, Mystic, Вы писали:
M>Здравствуйте, samius, Вы писали:
S>>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
M>Чтобы определять наличие сознания надо вначале определить, что такое сознание
Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
Здравствуйте, samius, Вы писали:
S>Здравствуйте, Mystic, Вы писали:
M>>Здравствуйте, samius, Вы писали:
S>>>Сколько не возьми IQ, тест Тьюринга не определит то, для чего не предназначен — наличие сознания (ни у машины, ни у людей).
M>>Чтобы определять наличие сознания надо вначале определить, что такое сознание S>Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
Раз нет определение, его вполне можно дать на основе теста Тьюринга. Например, Тьюринговым сознанием назовем...
Здравствуйте, Mystic, Вы писали:
M>Здравствуйте, samius, Вы писали:
M>>>Чтобы определять наличие сознания надо вначале определить, что такое сознание S>>Верно, об этом уже немало было сломано копий в предыдущей теме про Машину Тьюринга и сознание... Тьюринг, на сколько мне известно, такого определения не давал и тест придумал вовсе не для этого.
M>Раз нет определение, его вполне можно дать на основе теста Тьюринга. Например, Тьюринговым сознанием назовем...
Это подстава Тьюринга.
Здравствуйте, Aen Sidhe, Вы писали:
0K>>В результате людей за людей приняли 63% чатившихся, а Cleverbot'а — 59%. 0K>>Все! Выше 50% -- тест пройден.
AS>Что-то я не помню такого в определении Turing Test. Хотя, мои знания в этой области нулевые почти.
Тест Тьюринга нельзя применить как строгий научный тест из-за нерешенных философских проблем, это больше символ, имя нарицательное. Вообще выражение “человек пройдет тест” не имеет смысла. Что такое человек? Рожденный идиотом, вообще не освоивший речь — человек? Дебил, едва мямлящий — человек? Трехлетний ребенок? Просто очень глупый?
“Человек” и “интеллект” величины очень и очень сильно варьирующиеся. Если взять клинического слабоумного, то существующие чатботы будут даже получше такого человека. Но если взять очень умного и образованного, то чатботам еще долго расти. Так что эти проценты ничего не значат, кто его знает насколько те люди репрезентативны к обобщенным понятиям человека и интеллекта.
— What is the first letter of the first word of this question?
— T?
— Why?
(бот уходит в астрал на 2 минуты, после чего я перезагружаю страницу)
— What city do you live in?
— Belfast.
... (5-6 фраз)
— What country do you live in?
— Try to guess it.
— USA?
— Wrong.
— China?
— Yes, my sistr lives in China.
— And what country do you live in?
— Russia. (т.е. бот уже не помнит, что говорил минуту назад)
Здравствуйте, Mystic, Вы писали:
M>IQ ничего не измеряет. А вообще, беседы не впечатлили, если честно. Попробовал сам:
M>
1>> Hi
2>> Hi
1>> What do you like?
2>> Food.
1>> What kind of food do you prefer?
2>> Fast food.
1>> Is it tasty?
2>> Yes.
1>> But most of people think that fast food is harmful.
2>> No kidding.
M>с учетом моего английского, создается впечатление, что бот просто научился всех посылать.
Ага он совершенно не умеет поддерживать беседу. Несколько раз ответит нормально а потом выдаст нечто невпопад.
0K>В результате людей за людей приняли 63% чатившихся, а Cleverbot'а — 59%.
0K>Все! Выше 50% -- тест пройден.
0K>Хотя, взглянувшему на код становится понятно, что эта программа не имеет сознания.
0K>И теперь мы подошли к самому интересному вопросу (который, давеча, уже затрагивали
): как определить, что объект наделен сознанием? Можем ли мы придумать такой тест?
0K>Тест должен безошибочно определять где алгоритмическая последовательность а где сознательные рассуждения.
0K>Какие будут предложения?
Имхо часть вопросов редиректится остальным пользователям. Я делаю такой вывод потом что он писал мне на разных языках.
Вообще бот отвратительный. Ни на один вопрос правильно не ответил.
Здравствуйте, 0K, Вы писали:
0K>Все! Выше 50% -- тест пройден.
читаю уже наверно 20-й топик по этой теме, созданный вами и вашими собратьями, и всё никак не пойму — почему для вас так важно не отличаться от людей??