Здравствуйте, Юрий, Вы писали:
А>Здравствуйте, BUran, Вы писали:
BU>>Обученная нейронная сеть обратного распространения при распознавании одного образа каждый нейрон запускает один раз за сравнение. При этом каждый нейрон обшаривает все приходящие (или исходящие) связи... Итого N*E*C1+N*C2, где N — нейронов, E-среднее число связей, C1 — время на расчет нейрона, C2 — время на обсчет связей.
BU>>И на обратном пути чуть побольше, если сеть продолжает обучаться (другие C1 и C2).
А>То есть, насколько я понимаю, трудоёмкость можно считать порядка O(N^2), N — число нейронов, поскольку N*E*C1 при наличии полного графа связей, то есть для наихудшего случая, превратится в N*(N-1)*C1 , а это уже почти квадрат и есть. Или я не прав?
Прав. Обычно даже маленько по-другому. Связываются обычно все нейроны следующего слоя с нейронами предыдущего. Если слоев M, и они все одинаковые, то результат получится в M раз меньше. В общем, я думаю, ты уяснил, что я хочу сказать.
P.S. Я считаю, что данные мысли представляют только чисто теоретический интерес. Если ты хочешь делать реальное распознавание образов — об этом и спроси, поизучай методы, а не кидайся на первый попавшийся. Возможно, тебя привлекут 1) другие нейросетевые алгоритмы 2) алгоритмы, основанные на правилах 3) семантический вероятностный вывод (у меня такая тема научной работы сейчас) 4) ещё что-нибудь