Одним из гиперпараметров для сетей LSTM является температура. Что это такое?
Одним из гиперпараметров для сетей LSTM является температура. Что это такое?
Ответы:
Температура - это гиперпараметр LSTM (и нейронных сетей в целом), используемый для контроля случайности прогнозов путем масштабирования логитов перед применением softmax. Например, в реализации LSTM в TensorFlow для Magenta температура представляет, на сколько разделить логиты до вычисления softmax.
Когда температура равна 1, мы вычисляем softmax непосредственно по логитам (немасштабированный вывод более ранних слоев), и, используя температуру 0,6, модель вычисляет softmax по , что приводит к большему значению. Выполнение softmax для больших значений делает LSTM более уверенным (требуется меньше входных данных для активации выходного слоя), но также более консервативным в его выборках (менее вероятно, что выборка будет выполнена из маловероятных кандидатов). Использование более высокой температуры обеспечивает более мягкое распределение вероятностей по классам и делает RNN более «легко возбуждаемым» выборками, что приводит к большему разнообразию и большему количеству ошибок .
Нейронные сети генерируют вероятности классов с вектором логита где , выполняя функцию softmax для получения вектора вероятности , сравнивая с другими логитами.
где - это температурный параметр, обычно равный 1.
Функция softmax нормализует кандидатов на каждой итерации сети на основе их экспоненциальных значений, гарантируя, что выходные данные сети находятся между нулем и одним на каждом временном шаге.
Следовательно, температура повышает чувствительность к кандидатам с низкой вероятностью. В LSTM кандидатом или образцом может быть буква, слово или музыкальная нота, например:
Для высоких температур ( ) все [выборки] имеют почти одинаковую вероятность, и чем ниже температура, тем больше ожидаемых наград влияет на вероятность. Для низкой температуры ( ) вероятность [выборки] с наибольшим ожидаемым вознаграждением стремится к 1.
- из статьи в Википедии о функции softmax
Хинтон, Джеффри, Ориол Виньялс и Джефф Дин. «Перегонка знаний в нейронной сети». Препринт arXiv arXiv: 1503.02531 (2015). Arxiv