Информация об изменениях

Сообщение Re[4]: Новый тест вместо теста Тьюринга от 06.02.2023 9:28

Изменено 06.02.2023 9:58 pagid_

Re[4]: Новый тест вместо теста Тьюринга
Здравствуйте, vsb, Вы писали:

vsb>ChatGPT не тренировали для того, чтобы он притворялся человеком. Его тренировали, чтобы он соглашался с человеком и пытался дополнять то, что он знает.

То есть о прохождении теста Тьюринга, о чем хотел поговорить ТС речи не идет.


vsb>Уверен, что если перед командой OpenAI поставят такую задачу — они без проблем сделают и робота, который будет говорить "не знаю" или "не уверен", они сделают робота с характером (та же Алиса вполне проявляет характер в определённых ситуациях), они сделают синтез одной из нескольких предопределённых личностей (про отрывки из средней школы ты, должно быть, шутишь, он меня по кубернетесу периодически консультирует, не думаю, что шалопай с такими знаниями существует в природе) с правдоподобным характером, более узким набором знаний. Это выглядит даже проще, чем то, что сейчас есть как ChatGPT. Просто — зачем? Не думаю, что перед кем-то всерьёз стоит задача пройти тест Тюринга. Им надо деньги зарабатывать, а не публику пугать. Не удивлюсь, если они ещё и подтюнили сеть для того, чтобы её ответы были более очевидны как ответы бота.

Осень даже может быть, но тогда непонятно происхождении оценки "ChatGPT уже сегодня умней большинства людей". Никаких свойств считающихся умом оно не проявило. Может быть в некоторой степени только вот эту способность быть бесконфликтным, но оно может быть в некоторых случаях как проявлением ума, так и наоборот признаком отсутствия. Вот различать эти случае, как раз хороший признак ума.
Ну и то, что поисковик хорошо надроченный на некоторую предметную область умеет обрамлять ответы как бы своими слова уж точно не признак ума.
Re[4]: Новый тест вместо теста Тьюринга
Здравствуйте, vsb, Вы писали:

vsb>ChatGPT не тренировали для того, чтобы он притворялся человеком. Его тренировали, чтобы он соглашался с человеком и пытался дополнять то, что он знает.

То есть о прохождении теста Тьюринга, о чем хотел поговорить ТС речи не идет.


vsb>Уверен, что если перед командой OpenAI поставят такую задачу — они без проблем сделают и робота, который будет говорить "не знаю" или "не уверен", они сделают робота с характером (та же Алиса вполне проявляет характер в определённых ситуациях), они сделают синтез одной из нескольких предопределённых личностей (про отрывки из средней школы ты, должно быть, шутишь, он меня по кубернетесу периодически консультирует, не думаю, что шалопай с такими знаниями существует в природе) с правдоподобным характером, более узким набором знаний. Это выглядит даже проще, чем то, что сейчас есть как ChatGPT. Просто — зачем? Не думаю, что перед кем-то всерьёз стоит задача пройти тест Тюринга. Им надо деньги зарабатывать, а не публику пугать. Не удивлюсь, если они ещё и подтюнили сеть для того, чтобы её ответы были более очевидны как ответы бота.

Очень даже может быть, но тогда непонятно происхождении оценки "ChatGPT уже сегодня умней большинства людей". Никаких свойств считающихся умом оно не проявило. Может быть в некоторой степени только вот эту способность быть бесконфликтным, но оно может быть в некоторых случаях как проявлением ума, так и наоборот признаком отсутствия. Вот различать эти случае, как раз хороший признак ума.
Ну и то, что поисковик хорошо надроченный на некоторую предметную область умеет обрамлять ответы как бы своими слова уж точно не признак ума.