Здравствуйте, Muxa, Вы писали:
M>Сеть по генерации текста генерит текст, кто бы мог подумать.
M>Баг-то в чем разница заключается? В плохо натренированной модели?
В невозможности предсказать какие задачи возможно решить на основе данных того или иного датасета а какие невозможно. Задачи в конкретном виде может не быть в датасете — а нейросеть ее как-то научилась решать.
Отсутствие объяснимости решений — нейросети работают как «черные ящики», и даже их разработчики не могут точно объяснить, как принимаются решения. Это приводит к трудностям в проверке моделей на соответствие этическим нормам или регуляциям, что вызывает тревогу при их применении в важных областях, таких как медицина или правосудие.
Проблема тут в том что даже сами создатели библиотек или наборов данных не могут делать прогнозы — их творение непредсказуемо для них самих.
M>Это у кого такая проблема? Дай ссылку почитать.
https://news.mit.edu/2024/llms-develop-own-understanding-of-reality-as-language-abilities-improve-0814