Здравствуйте, Sinclair, Вы писали:
S>Примерно такой же переход имеет место между локальным детерминизмом и "вычислительной сложностью". S>Сам по себе ИИ тут мало что нового вносит. Простейшая и понятная каждому вещь — компилятор. В старые времена можно было прямо в уме прикидывать, в какие инструкции компилятор превратит паскалевский код. S>Современный компилятор настолько далеко уезжает от исходников, что не то, что предсказать результат его работы становится трудно — даже посмотрев на этот результат, не всякий сходу скажет, почему получилось именно так. S>Тем не менее, никакого дискомфорта это не вызывает — точно так же снижается уровень ожиданий. Меньше инвариантов сохраняется, но всё же работа компилятора — это не рандом. S>Так будет и с ИИ: кое-что из его работы мы будем понимать, остальное окажется не так уж и важно.
Но все-же когда исходники доступны (или кому исходники доступны) — можно отследить любое поведение. Пусть это будет и не просто.
В случае же с нейросеткой — имеем на входе набор данных в сотни терабайт а то и петабайты. Человек за жизнь может прочесть (не более 1 Гб). Далее, создание модели потребует работы целого кластера в течение нескольких месяцев с затратами в сотни тысяч или даже миллионы долларов.
На выходе получите файлик от 7 Гб до 1 Тб. с некими коэффициентами, которые уже никак нельзя сопоставить с водными данными. На каждый коэффициент так или иначе влияло огромное количество данных как в плюс так и в минус.
И тут дело уже не в том что у тебя исходников нет или именно ты не достаточно компетентен, чтобы разобраться почему модель повела себя так. Просто нет физической возможности ответа на этот вопрос. Может где-то там среди 100 терабайт данных была похожая задача, может была такая же задача, но разнесенная на две в разных частях датасета. А может не на две а на две тысячи. Не остледить никак.