Посторонний в поле ML / DL; начал курс Udacity Deep Learning, основанный на Tensorflow; выполняя задание 3, задача 4; пытаясь настроить скорость обучения с помощью следующего конфига:
- Размер партии 128
- Количество шагов: достаточно, чтобы заполнить 2 эпохи
- Размеры скрытых слоев: 1024, 305, 75
- Инициализация веса: усеченный в норме с помощью std. отклонение sqrt (2 / n), где n - размер предыдущего слоя
- Вероятность отсева составляет 0,75
- Регуляризация: не применяется
- Алгоритм обучения: экспоненциальный спад
поиграл с параметрами скорости обучения; кажется, что они не имеют эффекта в большинстве случаев; код здесь ; Результаты:
Accuracy learning_rate decay_steps decay_rate staircase
93.7 .1 3000 .96 True
94.0 .3 3000 .86 False
94.0 .3 3000 .96 False
94.0 .3 3000 .96 True
94.0 .5 3000 .96 True
- Как мне систематически настраивать скорость обучения?
- Как скорость обучения связана с количеством шагов?