Вопросы с тегом «sigmoid-curve»

4
Почему tanh почти всегда лучше сигмовидной как функция активации?
В курсе Эндрю Нг « Нейронные сети и глубокое обучение» на Coursera он говорит, что использование tanhTaNчасtanh почти всегда предпочтительнее использования sigmoidsягмояdsigmoid . Причине он дает то , что выходные сигналы с помощью tanhTaNчасtanh центром , вокруг 0 , а не sigmoidsягмояdsigmoid «с 0.5, и это„делает обучение для следующего слоя …

3
Relu против Sigmoid против Softmax как скрытые нейроны слоя
Я играл с простой нейронной сетью только с одним скрытым слоем от Tensorflow, а затем пробовал разные активации для скрытого слоя: Relu сигмоид Softmax (ну, обычно softmax используется в последнем слое ..) Relu дает лучшую точность поезда и точность проверки. Я не уверен, как это объяснить. Мы знаем, что Relu …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.