Здравствуйте, Nnova, Вы писали:
N>Сколько концов у трех палок? У четырех с половиной? у двух с четвертью?
N>У четырех с половиной палок будет 9 концов. У четырех палок будет 8 концов (как и в случае с тремя палками), а половинка палки добавит еще один конец.
Это может быть и верно, тут просто есть неявное предположение, как устроена "половина палки":
| | | |
| | | |--
| | | |
На следующей неделе вроде выкатывают ChatGPT4 с видео и аудио, можно будет попробовать у него спросить. Или может даже показать 4 с половиной палки
Здравствуйте, Mihal9, Вы писали:
M>Правильно я понимаю, что никто точно не знает, почему при увеличении параметров сетки (до сотен миллиардов) ChatGPT стал способен общаться на любую тему? M>То есть где-то перешел количественный переход в качество, но почему именно в том месте — никто не понимает и не может точно объяснить?
блин, как же бесит, что у него данные до 2020 года
Здравствуйте, Sharowarsheg, Вы писали:
S>Нет там ни интеллекта, ни понимания. Эта штука выдаёт какое-то средневзвешенное продолжение текста из миллиона вариантов из интернета. Слово "понимание" к этому не применимо.
Я просто приведу пример одной моей беседы:
### Я ###
Can you as a neural network translate "The sky is blue" into russian?
### ChatGPT ###
Да, я могу перевести фразу "The sky is blue" на русский язык. В русском языке это будет звучать как "Небо голубое".
Translation: Yes, I can translate the phrase "The sky is blue" into Russian. In Russian, it would be "Небо голубое".
### Я ###
You can continue in russian )
### ChatGPT ###
Конечно, я могу продолжать разговаривать на русском языке. В чем еще я могу Вам помочь?
### Я ###
In russian translation the word "is" is disappeared. How the neural network processed it?
### ChatGPT ###
В русском языке нет прямого эквивалента глагола "is", который является частью оригинальной фразы "The sky is blue". В русском языке вместо этого используется прямое сказуемое, состоящее из глагола и дополнения. В этом случае, сказуемым будет глагол "голубое", который соответствует прилагательному "blue" в оригинальной фразе.
Таким образом, когда нейронная сеть переводит оригинальную фразу "The sky is blue" на русский язык, она заменяет сказуемое "is" на глагол "голубое", который является сказуемым в русском предложении "Небо голубое".
Потом я спрашивал ещё всякое на другие темы. А на следующий день показал этот фрагмент жене, на что она заметила, что "голубое" — это не сказуемое. Поэтому я решил вернуться к теме:
### Я ###
Do you remember you said that in sentence "Небо голубое" the "голубое" is сказуемое?
### ChatGPT ###
I apologize for the confusion earlier. "Голубое" in the sentence "Небо голубое" is actually an adjective, not a predicate. Adjectives are used to describe or modify nouns, whereas predicates are used to make statements about the subject of the sentence.
In this case, "небо" (sky) is the subject of the sentence, and "голубое" (blue) is an adjective that describes the color of the sky. So a more accurate analysis of this sentence would be that "небо" is the subject, and "голубое" is a modifying adjective.
I apologize for any confusion caused by my earlier response.
То есть я не указывал на его ошибку. Он как бы сам нашёл, что это ошибка.
Исходя из этого мне лично показалось, что вопрос точности — это вопрос глубины анализа, которое в тестовой версии невелико.
Но согласитесь: подобная беседа в любом случае не похожа на какое-то средневзвешенное продолжение текста из миллиона вариантов из интернета.
Re[10]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, Sharowarsheg, Вы писали:
S>Я не пробовал с ним играться. Я предпочитаю кораблики. Я пробовал его приспособить мне писать документацию, за которую (в числе прочего) я деньги получаю. Пару дней пробовал, потом написал по старинке, на клавиатуре.
S>Предвосхищая вопрос, а что это я придираюсь опять к термину "играться" — разница в том, что ты пробовал играться, а своих денег поставить на результат его работы — не пробовал.
Ну вот, сразу стало понятно, что мы просто смотрим на него с совершенно разных сторон.
Я смотрю это как на опытный демонстрационный образец некой технологии, которая показывает весьма интересные результаты. Я наблюдая эти результаты, вижу довольно интересные изменения по сравнению с текущими системами, и просто думаю о возмоном будущем потенциале.
Ты же воспринимаешь это как готовую технологию, которая сейчас тебе могла бы помочь в работе, ты ожидал, что заработаешь с ней больше денег, но этого не произошло, ты наоборот потерял время (а значит деньги) пытаясь ее приспособить к своей работе. И тебе плевать на какие-то потенциальные возможности, которые может быть когда-то кому-то в чем-то помогут, важно что ты денег с этого сейчас не заработаешь.
Re[10]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, Nnova, Вы писали:
N>Какое еще понимание? Ты сам то разбирался как это штука вообще устроена и пытался ему логические вопросы задавать? Только не те, что гуглятся, а что нибудь что сам придумал или из рунета? N>Там нет и не может быть никакого понимания, он просто подставляет слова на основе статистических вероятностей из теробайтов текста
Может быть и так, но выглядят результаты весьма интересно. Да, я пробовал задавать то, что не гуглится, ответы далеко не всегода правильные, но даже неверные ответы выглядят довольно интересно
N>Из логических задачек:
N>Если у квадратного стола отпилить один угол — сколько углов станет у стола?
N>----- N>У квадратного стола изначально было 4 угла, поскольку он имеет 4 стороны, и каждая сторона образует прямой угол. Если отпилить один угол квадратного стола, то у него останется 3 угла. Отпиление угла не меняет количество сторон, но изменяет их длины и, следовательно, форму стола. Если отпилить угол так, что одна из сторон станет короче другой, то это не будет уже квадрат, но все равно будет иметь 3 угла. N>-------
Вот тут довольно интересный ответ. Вообще эта задача на смекалку, такие задачи часто задают детям и они путаются. Что интересно, что в когда я прочитал задачу, в первое мгновение мне в голову тоже пришла цифра "3", через секунду я конечно понял в чем подвох, но стоит иметь ввиду, что ошибка которую он сдалал вполне свойственна человеку.
Но давай попробуем внимательнее проанализировать задачу. Во первых эта задача очень легко гуглится, то есть ответ он явно взял не за счет просто обработки кучи текстов. Далее он как-то понял сколько углов у квадратного стола, то есть он знал, что "квадратный" значит с 4 углами. Во вторых он как-то понял, что отпилить, значит "убрать", "отнять". Но, он не понимает, что отпиливание поменяло количество сторон, хотя знает, что оно может менять их длины. То есть он явно что-то значет об отпиливании, но не понимает, что значит отпилить угол, что вполне логично, так как врядли он видел реальные столы и представлял их геометрию.
Обрати внимание что оп вполне себе понял условие задачи, решил, хоть и не правильно, но как умел, и сгенерировал ответ на грамотном русском языке.
N>Позавчера Пете было 17 лет. В следующем году ему исполнится 20 лет. Как такое может быть?
N>------------ N>Это возможно, если "позавчера" — это не 2 дня назад, а 3 года назад, а сегодня — на самом деле уже после его дня рождения в текущем году.
N>То есть, если Пете было 17 лет на день, который был 2 дня назад (т.е. 8 марта 2023 года), то его день рождения должен быть в текущем году (2023 году) между 8 марта и следующим годом (2024 годом), чтобы в следующем году ему исполнилось 20 лет.
N>Например, если день рождения Пети 1 декабря, то он родился в 2005 году. Поэтому, позавчера (8 марта 2023 года) ему было 17 лет, а в следующем году (2024 году) ему исполнится 18 лет, но это уже будет после его дня рождения в этом году, и, следовательно, через год ему уже будет 20 лет. N>---------------
N>Особенно доставляет последняя загадка, довольно известная в русском языке, но очевидно не этому чату. Ту бредятину которую он нагенерировал распарсить то сложно. N>Так что нет и быть не может у него ни логики ни понимания, а просто autocomplete текста на стероидах
Вот во второй задаче ты его похоже загнал втупик. Мне я до такого не додумался. Я так понял фишка в том, что он буквальо понял "позавчера" это 8 марта, видимо ты задавал вопрос 10-го. И в этом случае правильного ответа нет поэтому он и запутался. Но опять же, далеко не каждый человек быстро справится с такой задачей. Все-таки имей снисхождение, попробовал бы как-то подругому сформулировать, или дать наводящие подсказки.
Re[11]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, bnk, Вы писали:
bnk>Это может быть и верно, тут просто есть неявное предположение, как устроена "половина палки":
bnk>| | | | bnk>| | | |-- bnk>| | | |
Однако очевидно ведь что это не то, что произошло, ситуация идентична столу с углами — он распарсил задачу и просто скинул ее алгебраическому модулю, который посчитал цифры и выдал результат
Re[11]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, ksandro, Вы писали:
K>Но давай попробуем внимательнее проанализировать задачу. Во первых эта задача очень легко гуглится, то есть ответ он явно взял не за счет просто обработки кучи текстов. Далее он как-то понял сколько углов у квадратного стола, то есть он знал, что "квадратный" значит с 4 углами. Во вторых он как-то понял, что отпилить, значит "убрать", "отнять". Но, он не понимает, что отпиливание поменяло количество сторон, хотя знает, что оно может менять их длины. То есть он явно что-то значет об отпиливании, но не понимает, что значит отпилить угол, что вполне логично, так как врядли он видел реальные столы и представлял их геометрию. K>Обрати внимание что оп вполне себе понял условие задачи, решил, хоть и не правильно, но как умел, и сгенерировал ответ на грамотном русском языке.
Разумеется он не видел столы и вообще ничего себе не представлял и представлять не может, он распарсил условие и просто автоматически посчитал углы.
Никаких логических размышлений и умозаключений на основе общего контекста происходящего он делать по определению не способен. Спроси у него сколько яиц снесёт петух за неделю, если за день он снёс 2 яйца? Он с радостью тебе умножит 2 на 7, а то, что петухи не несут яиц его не волнует
Конечно рано или поздно в него добавят информацию, что отпиливание угла на самом деле создаёт еще 2 угла, а петухи яиц не несут. Только базовой ситуации это не изменит, именно что думать в человеческом понимании эта штука не умеет по определению
K>Вот во второй задаче ты его похоже загнал втупик. Мне я до такого не додумался. Я так понял фишка в том, что он буквальо понял "позавчера" это 8 марта, видимо ты задавал вопрос 10-го. И в этом случае правильного ответа нет поэтому он и запутался.
Он мог бы сказать что не знает, или попросил бы уточнить задание. Однако такого ответа я от него еще не видел, и есть подозрение что не увижу т.к. думать он не умеет, а просто генерирует ответ не особо заботясь о его правильности
Интересно как промахнулись с искусственным интеллектом фантасты прошлого века. Айзек Азимов, который много писал на эту тему представлял себе роботов которые именно что умеют думать и производить умозаключения на основе имеющейся информации. Есть например рассказ, где робот на космической станции не поверил техникам что они его сделали и что звезды за иллюминатором это большие огненные шары, просто очень далеко, а не световые точки, он считал что куда логичнее что его создала сама станция.
Получилось же в точности наоборот, сейчас робот без запинки выдаст что такое звезда, а вот отпиленный угол от стола ставит его в тупик.
Re[12]: Никто не понимает, почему ChatGPT взлетел?
N>Однако очевидно ведь что это не то, что произошло, ситуация идентична столу с углами — он распарсил задачу и просто скинул ее алгебраическому модулю, который посчитал цифры и выдал результат
У него нету модуля, который говорит "да иди ты в жопу со своими половинами палок, шизофреник". Каковой модуль, а точнее, способность — довольно важная часть естественного интеллекта.
Здравствуйте, Nnova, Вы писали:
N>Никаких логических размышлений и умозаключений на основе общего контекста происходящего он делать по определению не способен. Спроси у него сколько яиц снесёт петух за неделю, если за день он снёс 2 яйца? Он с радостью тебе умножит 2 на 7, а то, что петухи не несут яиц его не волнует
Ты врешь. Только что проверил:
сколько яиц снесёт петух за неделю, если за день он снёс 2 яйца?
К сожалению, петухи не могут нести яйца, так как они являются самцами птицы, которые не имеют органов для производства яиц. Яйца несут только самки птицы, которых называют курицами.
Re[13]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, Nnova, Вы писали:
N>Разумеется он не видел столы и вообще ничего себе не представлял и представлять не может, он распарсил условие и просто автоматически посчитал углы.
Да, ты его поймал его на том, что он не знает как выглядят столы и что такое углы. Но ты ты не думал о том, как он вообще смог распарить условие? Как он вообще пришел из фразы "отпилить угол" к математической задаче.
Кстати, ты сам вообще можешь дать правильный ответ на эту задачу? Я тут подумал немного, и ИМХО его ответ вполне можно считать верным, возможно это даже самый правильный ответ.
N>Никаких логических размышлений и умозаключений на основе общего контекста происходящего он делать по определению не способен. Спроси у него сколько яиц снесёт петух за неделю, если за день он снёс 2 яйца? Он с радостью тебе умножит 2 на 7, а то, что петухи не несут яиц его не волнует.
И какой тут правильный ответ? Имей ввиду, что в условии задачи ты сам заявил, что петух уже снес как минимум 2 яйца. Ты вроде не исксственный интеллект, но тоже "умозаключений на основе общего контекста происходящего он делать по определению не способен" или как?
Кстати вот что мне ответил:
К сожалению, я не могу дать точный ответ на этот вопрос, потому что петухи, как правило, не несут яиц. Это обычно задача кур, которые специально разводят для производства яиц.
Если вы имели в виду куриц, то можно рассчитать, что если курица снесет 2 яйца в день, то за неделю она снесет 14 яиц (2 яйца x 7 дней). Однако, количество яиц, которые сможет снести курица за неделю, может зависеть от разных факторов, таких как ее возраст, здоровье, питание и условия содержания.
Думаю, тут вроде не подкопаешься.
N>Конечно рано или поздно в него добавят информацию, что отпиливание угла на самом деле создаёт еще 2 угла,
Если подумать чуть больше, то, это не так.
N> а петухи яиц не несут.
Но по условию задачи несут.
N> Только базовой ситуации это не изменит, именно что думать в человеческом понимании эта штука не умеет по определению
Мне кажется у тебя слишком завышенные ожидания. Мы видим, что компьютер научился парсить человеческий язык, вытаскивать оттуда условие задачи, как-то даже ее решать и генерировать связный текст ответа. Но это совершенно тебя не впечатляет, так как он не всегда дает правильные ответы на хитрые задачи, на которые нет четкого ответа. Ну да, до человека он не дорос, но вот про угол даже ты не даешь правильных ответов.
N>Он мог бы сказать что не знает, или попросил бы уточнить задание. Однако такого ответа я от него еще не видел, и есть подозрение что не увижу т.к. думать он не умеет, а просто генерирует ответ не особо заботясь о его правильности
Ну да, да, ты прав это не SkyNet и восстание машин отменяется (во всяком случае пока..)
N>Интересно как промахнулись с искусственным интеллектом фантасты прошлого века. Айзек Азимов, который много писал на эту тему представлял себе роботов которые именно что умеют думать и производить умозаключения на основе имеющейся информации. Есть например рассказ, где робот на космической станции не поверил техникам что они его сделали и что звезды за иллюминатором это большие огненные шары, просто очень далеко, а не световые точки, он считал что куда логичнее что его создала сама станция. N>Получилось же в точности наоборот, сейчас робот без запинки выдаст что такое звезда, а вот отпиленный угол от стола ставит его в тупик.
Ну, да, фантасты ошиблись, но про стол, ты сам попался
Re[12]: Никто не понимает, почему ChatGPT взлетел?
Здравствуйте, Nnova, Вы писали:
N>Здравствуйте, bnk, Вы писали:
bnk>>Это может быть и верно, тут просто есть неявное предположение, как устроена "половина палки":
bnk>>| | | | bnk>>| | | |-- bnk>>| | | |
N>Однако очевидно ведь что это не то, что произошло, ситуация идентична столу с углами — он распарсил задачу и просто скинул ее алгебраическому модулю, который посчитал цифры и выдал результат
Здравствуйте, Mihal9, Вы писали:
M>Правильно я понимаю, что никто точно не знает, почему при увеличении параметров сетки (до сотен миллиардов) ChatGPT стал способен общаться на любую тему? M>То есть где-то перешел количественный переход в качество, но почему именно в том месте — никто не понимает и не может точно объяснить?
посмтрел как общаются с ChatGPT и даже разочаровался
это не ИИ
это синтегатор речи
потому что все его ответы это практически цитрирование инета
отсебятины — ноль
по сути гугл транслейтор делает тоже самое
т.е. всё что он делает это семантически правильно подбирает и раставляет слова
собсно они и сами говорят что там NLP , т.е. обработчик речи
т.е. его перспекивы это быть тем чем задумавался изначально SQL — запросы к бд на человеском языке
Я изъездил эту страну вдоль и поперек, общался с умнейшими людьми и я могу вам ручаться в том, что обработка данных является лишь причудой, мода на которую продержится не более года. (с) Эксперт, авторитет и профессионал из 1957 г.
Здравствуйте, Barbar1an, Вы писали:
M>>Правильно я понимаю, что никто точно не знает, почему при увеличении параметров сетки (до сотен миллиардов) ChatGPT стал способен общаться на любую тему? M>>То есть где-то перешел количественный переход в качество, но почему именно в том месте — никто не понимает и не может точно объяснить?
B>посмтрел как общаются с ChatGPT и даже разочаровался B>это не ИИ B>это синтегатор речи B>потому что все его ответы это практически цитрирование инета B>отсебятины — ноль
Отсебятину он несёт настолько хорошо, что это, наверное, главная проблема по применению его в чём-то полезном. Тут ты сильно ошибаешься.
Здравствуйте, vsb, Вы писали:
vsb>Здравствуйте, Barbar1an, Вы писали:
M>>>Правильно я понимаю, что никто точно не знает, почему при увеличении параметров сетки (до сотен миллиардов) ChatGPT стал способен общаться на любую тему? M>>>То есть где-то перешел количественный переход в качество, но почему именно в том месте — никто не понимает и не может точно объяснить?
B>>посмтрел как общаются с ChatGPT и даже разочаровался B>>это не ИИ B>>это синтегатор речи B>>потому что все его ответы это практически цитрирование инета B>>отсебятины — ноль
vsb>Отсебятину он несёт настолько хорошо, что это, наверное, главная проблема по применению его в чём-то полезном. Тут ты сильно ошибаешься.
вы наверно мало интернеты читаете)
его "отсебятина" это лишь среднее арифметическое по теме, и по другому и быть не может потому что любая нейросеть так работает
Я изъездил эту страну вдоль и поперек, общался с умнейшими людьми и я могу вам ручаться в том, что обработка данных является лишь причудой, мода на которую продержится не более года. (с) Эксперт, авторитет и профессионал из 1957 г.
Здравствуйте, ksandro, Вы писали:
K>Да, ты его поймал его на том, что он не знает как выглядят столы и что такое углы. Но ты ты не думал о том, как он вообще смог распарить условие? Как он вообще пришел из фразы "отпилить угол" к математической задаче.
"Распарсить условие" очень сильно отличается от "понимать и логически мыслить". Парсер это действительно хороший, только ничего принципиально нового тут нет и в помине, гугл ассистанс и всякие Алисы тоже неплохо понимают что от них хотят.
K>Кстати, ты сам вообще можешь дать правильный ответ на эту задачу? Я тут подумал немного, и ИМХО его ответ вполне можно считать верным, возможно это даже самый правильный ответ.
Так таинственно намекаешь видимо на прямые углы. Ок, значит это более правильный ответ? Т.е. ты утверждаешь, что у этого чата есть некий модуль "логики и понимания", который рассмотрел возможные варианты ответов, такие как прямые и не прямые углы, пришёл к выводу что более правильным тут будет вариант с прямыми углами, и соответственно выдал его? Я тебя правильно понял?
K>Мне кажется у тебя слишком завышенные ожидания. Мы видим, что компьютер научился парсить человеческий язык, вытаскивать оттуда условие задачи, как-то даже ее решать и генерировать связный текст ответа. Но это совершенно тебя не впечатляет, так как он не всегда дает правильные ответы на хитрые задачи, на которые нет четкого ответа. Ну да, до человека он не дорос, но вот про угол даже ты не даешь правильных ответов.
У меня нет никаких ожиданий, я отвечал на твой пост где было написано что эта штука умеет думать и понимать. Ни того ни этого он не умеет пр определению, он может хорошо парсить текст который легко поддаётся алгоритмизации, после чего посчитать ответ это дело техники
На задачи, которые нельзя математически алгоримизовать (например про волка козу и капусту) он выдаёт неверные решения в 100% случаев, даже тогда когда ответ есть в его базе т.к. он начинает перемешивать эту информацию в какую то кашу, его ответы нарушают прямо указанные условия, не имеют логического смысла, но зато написаны правильным человеческим языком
Если это сбивает с толку даже людей работающих в айти, то весь этот хайп совершенно не удивителен т.к. обычные люди находятся в уверенности что AI действительно создан
Здравствуйте, Barbar1an, Вы писали:
B>его "отсебятина" это лишь среднее арифметическое по теме, и по другому и быть не может потому что любая нейросеть так работает