Сообщение Re[10]: Odysseus от 11.02.2023 6:51
Изменено 11.02.2023 6:52 Dym On
Re[10]: Odysseus
Здравствуйте, Qbit86, Вы писали:
Q>Но для запросов, качество ответа на которые легко проверить, подходит шикарно.
Вот, в этом и дело. Когда качество ответов легко проверить, то ChatGPR не нужен, человек с сам легко справится с написанием текста.
Q>Число косяков минимизируется грамотным prompt engineering'ом, вычиткой и редактированием выдачи, тщательной проверкой фактов. А ещё лучше сами данные подавать на вход модели, не ожидать, что она их случайно усвоила при обучении.
И получается, что проще самому написать текст
PS Эта штука похожа на некоторые задачи нелинейного программирования: там, где машина может решить, там и у человек на бумажке раскидает за полчаса, а там, где человек уже не может рационально посчитать, там и машина затыкается. Так что останется этот зародыш ИИ как игрушка, и поиграют в него годит и уйдет в небытие, изредка будут публиковаться заметки, что мол ученые сделали то-то, получилась фигня, но забавная, все такие: вау! И опять небитие.
Q>Но для запросов, качество ответа на которые легко проверить, подходит шикарно.
Вот, в этом и дело. Когда качество ответов легко проверить, то ChatGPR не нужен, человек с сам легко справится с написанием текста.
Q>Число косяков минимизируется грамотным prompt engineering'ом, вычиткой и редактированием выдачи, тщательной проверкой фактов. А ещё лучше сами данные подавать на вход модели, не ожидать, что она их случайно усвоила при обучении.
И получается, что проще самому написать текст
PS Эта штука похожа на некоторые задачи нелинейного программирования: там, где машина может решить, там и у человек на бумажке раскидает за полчаса, а там, где человек уже не может рационально посчитать, там и машина затыкается. Так что останется этот зародыш ИИ как игрушка, и поиграют в него годит и уйдет в небытие, изредка будут публиковаться заметки, что мол ученые сделали то-то, получилась фигня, но забавная, все такие: вау! И опять небитие.
Re[10]: Odysseus
Здравствуйте, Qbit86, Вы писали:
Q>Но для запросов, качество ответа на которые легко проверить, подходит шикарно.
Вот, в этом и дело. Когда качество ответов легко проверить, то ChatGPR не нужен, человек сам легко справится с написанием текста.
Q>Число косяков минимизируется грамотным prompt engineering'ом, вычиткой и редактированием выдачи, тщательной проверкой фактов. А ещё лучше сами данные подавать на вход модели, не ожидать, что она их случайно усвоила при обучении.
И получается, что проще самому написать текст
PS Эта штука похожа на некоторые задачи нелинейного программирования: там, где машина может решить, там и у человек на бумажке раскидает за полчаса, а там, где человек уже не может рационально посчитать, там и машина затыкается. Так что останется этот зародыш ИИ как игрушка, и поиграют в него годик, и уйдет он в небытие. Изредка будут публиковаться заметки, что мол ученые сделали то-то, получилась фигня, но забавная, все такие: вау! И опять небытие.
Q>Но для запросов, качество ответа на которые легко проверить, подходит шикарно.
Вот, в этом и дело. Когда качество ответов легко проверить, то ChatGPR не нужен, человек сам легко справится с написанием текста.
Q>Число косяков минимизируется грамотным prompt engineering'ом, вычиткой и редактированием выдачи, тщательной проверкой фактов. А ещё лучше сами данные подавать на вход модели, не ожидать, что она их случайно усвоила при обучении.
И получается, что проще самому написать текст
PS Эта штука похожа на некоторые задачи нелинейного программирования: там, где машина может решить, там и у человек на бумажке раскидает за полчаса, а там, где человек уже не может рационально посчитать, там и машина затыкается. Так что останется этот зародыш ИИ как игрушка, и поиграют в него годик, и уйдет он в небытие. Изредка будут публиковаться заметки, что мол ученые сделали то-то, получилась фигня, но забавная, все такие: вау! И опять небытие.