Информация об изменениях

Сообщение Re: серия тупых вопросов от 19.09.2018 13:15

Изменено 19.09.2018 13:16 SomeOne_TT

Re: серия тупых вопросов
Здравствуйте, The Passenger, Вы писали:

...
TP> # The [0] is to disable the training phase flag
TP> return _convout1_f([0] + [X])

...
TP>насколько я понял K.learning_phase возвращает тензоры для сети ... что дает сложение со входами модели ? и как это вообще работает?

TP>дальнейший код для меня вообще по нулям — кто что и зачем ... не ну както понятно что K.function какимто образом связывает вход с выходом опроеделенного слоя,

TP>но что такое _convout1_f([0] + [X]) для меня вообще непонятно.

Это скорее всего broadcasting. Когда складываются два массива разной длины, то обычно правый растягивается под левый. Но как конкретно это происходит впитоне — хз, может
меньший растягивается под больший. Тогда результатом будет массив X, к которому добавили столбик нулей слева.

Соответственно все, что выше, уже можно попытаться понять.
Re: серия тупых вопросов
Здравствуйте, The Passenger, Вы писали:

...
TP> # The [0] is to disable the training phase flag
TP> return _convout1_f([0] + [X])

...
TP>насколько я понял K.learning_phase возвращает тензоры для сети ... что дает сложение со входами модели ? и как это вообще работает?

TP>дальнейший код для меня вообще по нулям — кто что и зачем ... не ну както понятно что K.function какимто образом связывает вход с выходом опроеделенного слоя,

TP>но что такое _convout1_f([0] + [X]) для меня вообще непонятно.

Это скорее всего broadcasting. Когда складываются два массива/тензора разной длины, то обычно правый растягивается под левый. Но как конкретно это происходит впитоне — хз, может меньший растягивается под больший. Тогда результатом будет тензор X, к которому добавили столбик нулей слева.

Соответственно все, что выше, уже можно попытаться понять.