Здравствуйте, _ilya_, Вы писали:
__>Потеря данных при сжатии — как использовать, текущие LLM перемалывают адское количество данных в малое, при том что пока результат плохой... Даже в deepseek 700GB не запихнули известных 100GB сжатой википедии 1:1 чтобы отвечал не наврав.
уже нашлось много способов ужать модель в размере без потери точности