xma>основная идея в том, чтобы использовать считывание эмоций (большее или меньшее наслаждение испытывает человек, и его степень) — при проигрывании очередного (сгенерированного ИИ) музыкального семпла, для обучения нейронки на живых людях .. (желательно сразу на миллионах людей, для ускорения процесса)
о том почему самообучение по типу AlphaZero для музыкального генеративного ИИ реально:
ACE-STEP ~3.5B (локальный open source аналог SUNO) обучали на 100 тысячах часов музыки (и потом файнтюн ещё дополнительно на 20 тысячах "качественных" композиций)
а теперь представьте что у вас миллион одновременных пользователей с reward emotional signal (с условной нейрогарнитуры продвинутой)
тогда (если пренебречь потерями времени на обобщение результатов, считая их мгновенными) можно будет само обучить нейросеть на них за 5-10 минут условно (а представьте какое качество получите если год таким макаром на них самообучать соответственно)
P.S.:
щаз ещё короче опен сорс делают для распределённого ИИ
тема в том что в теории может даже без центральных серверов ресурсоёмких и дорогих обойтись можно будет (чисто "торрент" обмен данными на пользовательских APU/GPU/NPU?/CPU?, с постепенным обобщением результатов),
(тем более в рамках перспектив ближайших 5-10 лет типа массовых APU 128 ГБ DDR6 (dual 300 ГБ/с) или 128-256 ГБ DDR7 (dual 600 ГБ/с), когда почти любой "говно ПК" без завываний и незаметно для пользователя сможет перемалывать тяжёлые нейровычисления)