Вы правы относительно немаркированных данных. УОКР - это генеративные модели, которые чаще всего используются в качестве учащихся без надзора.
При использовании для построения Deep Belief Network наиболее типичная процедура состоит в том, чтобы просто обучать каждый новый RBM по одному, когда они сложены друг на друга. Таким образом, противоречивая дивергенция не идет вверх и вниз в том смысле, который, я думаю, вы имеете в виду. Он работает только с одним RBM за один раз, используя скрытый слой предыдущего самого верхнего RBM в качестве входных данных для нового самого верхнего RBM. После всего этого вы можете рассматривать стек весов RBM в качестве начальных весов для стандартной нейронной сети с прямой связью и обучаться, используя ваши помеченные данные и обратное распространение, или делать что-то более экзотическое, например, использовать алгоритм пробуждения-сна. Обратите внимание, что мы не использовали никаких помеченных данных до этого последнего шага, что является одним из преимуществ этих типов моделей.
С другой стороны, есть несколько способов использовать RBM для классификации.
- Обучите RBM или стек из нескольких RBM. Используйте самый верхний скрытый слой в качестве входных данных для другого контролируемого ученика.
- Тренируйте RBM для каждого класса и используйте ненормализованные энергии в качестве входных данных для дискриминационного классификатора.
- Тренируйте RBM, чтобы быть моделью плотности соединения P (X, Y). Затем, учитывая некоторый вход x, просто выберите класс y, который минимизирует энергетическую функцию (нормализация здесь не проблема, как в предыдущем примере, поскольку константа Z одинакова для всех классов).
- Тренируй дискриминирующую RBM
Я настоятельно рекомендую вам прочитать технический отчет Джеффа Хинтона « Практическое руководство по обучению машин Больцмана с ограничениями ». Он обсуждает некоторые из этих вопросов более подробно, предоставляет бесценные советы, цитирует множество соответствующих статей и может помочь устранить любую другую путаницу, которая может возникнуть.