Как известно, главная проблема ChatGPT — это то, что на него нельзя положиться. Он может безбожно врать, когда спросишь о фактах, может выдумывать несуществующие события, людей, подсовывать факты, которых не было.
То есть за ним постоянно нужно проверять и уточнять в других источниках.
Если ты не разбираешься в теме, тебя дезинформируют. Если разбираешься, то сам исправляешь бота. Но тогда зачем нужен такой помощник?
Хотелось бы безупречного, безошибочного специалиста в качестве помощника. Как думаете, такой вообще возможен??
Я заметил, что сейчас яндекс активно набирает людей, которые занимаются факт-чекингом. То есть смотрят на ответы бота и исправляют ответ, где надо.
Сильно ли это поможет ИИ? Модель, которую нужно постоянно поправлять. Добьются ли она хотя бы 90-процентной точности (что тоже мало)?