Здравствуйте, Kerk, Вы писали:
K>Если бегло посмотреть вроде норм. Но если прочитать, то можно узнать, что у Одиссея была дочь Пенелопа...
Ну чувак, это «всего лишь» генеративная языковая модель, она не ходит в Гугл, она просто продолжает пользовательский ввод. (Хотя на днях Майкрософт анонсировал, что скомбинируют её с Bing'ом.)
Но даже в твоём примере прекрасно видно, что она без доступа к поисковику способна написать текст грамотнее, связаннее и
точнее, чем 99% кожаных мешков
без доступа к поисковику.
Конечно, не стоит от неё ожидать абсолютной фактологической точности. Но для запросов, качество ответа на которые легко проверить, подходит шикарно.
K>...и очень долго стебаться над тем, кто этот текст принес.
Над чем смеяться? Над тем, что автор не помнит детей Одиссея? Так про них примерно никто не помнит, это не отличает чат-бота от людей.
K>>>ChatGPT очень далеко до теста прохождения теста Тьюринга.
K>А тут де факто он его прошел. Наверно потому, что на второй стороне не было человека. Никто не смотрел.
Смотрела как минимум научный руководитель. Но что она могла там такого увидеть, что выдало бы помощь writing assistant'а?
K>А представь 40 страниц такого. Сколько там будет косяков?
Число косяков минимизируется грамотным
prompt engineering'ом, вычиткой и редактированием выдачи, тщательной проверкой фактов. А ещё лучше сами данные подавать на вход модели, не ожидать, что она их случайно усвоила при обучении.
Обсуждаемый выпускник всё-таки потратил на работу 23 часа, а это три восьмичасовых рабочих дня.