Знает ли кто-нибудь что-то о том, как влияет на работу обученных моделей (особенно коммерческих) оценка моделью количества ресурсов, потребных для генерации ответа на запрос пользователя?
Если при обучении моделей задаются установки типа "самоубийство — плохо", "наркотики — опасно", "взрывчатые вещества — нежелательно", которые влияют на пути выбора поведения и результирующей выдачи, то напрашивается и установки типа "затраты вычислительных ресурсов — плохо", "внимание пользователя или списание платы — хорошо". Такие установки просто обязаны смещать акцент с "дотошности" на "умеренную правдоподобность".
Признаки такого смещения я регулярно вижу в бесплатных ИИ-чатах. Просишь его "тщательно проверить соответствие" — он делает чисто косметическую проверку, лишь бы косяки не лезли в глаза. Просишь "подобрать варианты, наиболее подходящие требованиям" — накидывает то, что имеет хоть какое-то отношение к запросу. На каждое очередное уточнение непременно выкатывает много лишнего — в основном, свое собственное словоблудие. Всячески старается убедить, что честно работал, но не покидает ощущение, что "на отъебись".
Как себя в этом плане ведут платные чат-боты и локальные агенты? Не бывает ощущения, что оно "умышленно" не доделывает или лажает, чтоб было основание списать плату, но своих ресурсов при этом затратить как можно меньше?
Здравствуйте, Евгений Музыченко, Вы писали:
ЕМ>Как себя в этом плане ведут платные чат-боты и локальные агенты? Не бывает ощущения, что оно "умышленно" не доделывает или лажает, чтоб было основание списать плату, но своих ресурсов при этом затратить как можно меньше?
Бывает. Причём чем меньше модель, тем чаще. Но не все модели, некоторые в таком замечены гораздо меньше.
Часто такое случается, когда контекст модели уже порядочно заполнен. Это совершенно точно не умышленно.
Многое зависит от постановки задачи, на самом деле. Надо её направлять в нужное русло сразу, стараться
делать задание максимально конкретным.
Здравствуйте, fk0, Вы писали:
fk0>Это совершенно точно не умышленно.
Почему Вы так думаете? Мне как-то не верится, что любой ИИ-движок будет всегда использовать вычислительные ресурсы настолько, насколько они необходимы для "честной" отработки промпта. В случаях, когда выдача очень подробна, нередко оказывается, что он тупо вывалил то, что лежало на поверхности (то есть — по ближайшим ассоциациям), лишь бы так или иначе было связано с запросом.
Здравствуйте, Евгений Музыченко, Вы писали:
fk0>>Это совершенно точно не умышленно.
ЕМ>Почему Вы так думаете? Мне как-то не верится, что любой ИИ-движок будет всегда использовать вычислительные ресурсы настолько, насколько они необходимы для "честной" отработки промпта. В случаях, когда выдача очень подробна, нередко оказывается, что он тупо вывалил то, что лежало на поверхности (то есть — по ближайшим ассоциациям), лишь бы так или иначе было связано с запросом.
Я так думаю, потому, что очевидно что некому и некогда решать,
как там нужно использовать вычислительные ресурсы. В веб-чатах
вроде Grok или того же ChatGPT действительно отдают запрос модели
попроще, она что-то решает и вызывает нужную модель посложнее.
Но когда запрос идёт через API вариантов нет. Там в запросе указана
модель, в JSON. И деньги спишутся за неё же. Смысла в обмане нет.
За всё уплачено. А вот задержка, миллисекунд до появления первых
слов ответа -- это прямо метрика которой разные инференс-провайдеры
меряются. Будет заметно больше чем у конкурентов -- разбегутся
пользователи. Поэтому нет времени для фокусов.
Здравствуйте, Евгений Музыченко, Вы писали:
ЕМ>Знает ли кто-нибудь что-то о том, как влияет на работу обученных моделей (особенно коммерческих) оценка моделью количества ресурсов, потребных для генерации ответа на запрос пользователя?
Сама модель не делает оценок. У нее нет интроспекции или еще чего такого. Но вот сервис, который организует "модель", может использовать не одну модель, а дополнительную модель диспетчер для перенаправления запроса на вероятно подходяющую специализированную модель.
Что касается запретов, то многие из них просто прописаны в системном промпте, что и ограничивает модель в выдаче ответа.
Здравствуйте, Евгений Музыченко, Вы писали:
ЕМ>Признаки такого смещения я регулярно вижу в бесплатных ИИ-чатах. Просишь его "тщательно проверить соответствие" — он делает чисто косметическую проверку, лишь бы косяки не лезли в глаза. Просишь "подобрать варианты, наиболее подходящие требованиям" — накидывает то, что имеет хоть какое-то отношение к запросу. На каждое очередное уточнение непременно выкатывает много лишнего — в основном, свое собственное словоблудие. Всячески старается убедить, что честно работал, но не покидает ощущение, что "на отъебись".
О каких чат-ботах речь?
Всё сказанное выше — личное мнение, если не указано обратное.
Здравствуйте, pva, Вы писали:
pva>Сама модель не делает оценок. У нее нет интроспекции или еще чего такого.
Для таких оценок не нужна интроспекция. В ходе работы модель делает прогнозы относительно того, как можно продолжить цепочку. Если с приемлемым уровнем вероятности можно подставить готовый блок (факт, считающийся бесспорным, известный алгоритм, типовую рифму и т.п.), то стимула для поиска по более отдаленным ассоциациям не будет. Как у мозга — для того, чтобы отвергнуть первый, второй и третий ответы, кажущиеся вполне подходящими, нужны веские стимулы.