Здравствуйте, vdimas, Вы писали:
V>В современных гигантских многослойках кол-во экстремумов по слоям комбинаторно давно переваливает за кол-во атомов во Вселенной.
это даже не спорно (если не сарказм, оч похоже) — бред. просто потому, что для любого нейрона необходим транзистор (а там не один атом), бит на накопителе, что в совокупности дает большее количество атомов для одного терминала.
V>Ну конечно давно уже никто не понимает, как оно работает. 
)) да ладно, есть методы дебага. Что там понимать — греби ..
V>Считается, что при обучении создаются "устойчивые цифровые подпространства" на множестве всех состояний.
Считается, что для начала надо понять как синтаксический разбор связали с нейронками. (а именно, что такое векторизация слов и как используется в трансформерах), собственно ..
V>Но что они из себя представляют, эти подпространства состояний, и насколько они верно кодируют требуемые знания — на это ответа сегодня нет от слова совсем.
все это подвержено анализу.
V>Вся надежда на то, что ИИ следующего поколения сможет обучать и контрлировать ИИ нынешнего поколения и хотя бы примерно "понимать", что происходит унутре.
Ага, от это я уже от кого-то слышал, одного полубажное существо нагромоздит еще боле тупое ведро.
П.С. вся эта мистификация алгоритмов ) куда ее деть ??? кому нанужна ??