Разница между нейронной сетью и глубоким обучением


10

С точки зрения различий между нейронной сетью и глубоким обучением мы можем перечислить несколько элементов, таких как добавление большего количества слоев, массивный набор данных, мощное компьютерное оборудование, чтобы сделать обучение сложной моделью.

Помимо этого, есть ли более подробное объяснение различий между NN и DL?


3
Насколько я знаю, достаточно иметь несколько скрытых слоев, чтобы сделать сеть "глубокой"; больше данных и более крупные компьютеры являются более симптомом растущей доступности обоих для задач машинного обучения.
Sycorax сообщает, что восстановит Монику

Возможно, этот вопрос следует перенести в новый обмен стека искусственного интеллекта ?
WilliamKF

2
@WilliamKF Это прямо по теме здесь.
Sycorax сообщает, что восстановит Монику

Ответы:


7

Глубокое обучение = глубокие искусственные нейронные сети + другие виды глубоких моделей .

Глубокие искусственные нейронные сети = искусственные нейронные сети с более чем одним слоем. (см. минимальное количество слоев в глубокой нейронной сети )


4

У Фрэнка Дернонкура есть лучший ответ общего назначения, но я думаю, что стоит упомянуть, что когда люди используют широкий термин «глубокое обучение», они часто подразумевают использование новейших методов, таких как свертка, которых вы не найдете в старом / традиционном (полностью подключенные) нейронные сети. В случае проблем распознавания изображений свертка может обеспечить более глубокие нейронные сети, поскольку извилистые нейроны / фильтры несколько снижают риск переоснащения за счет разделения весов.


1

Нейронные сети с большим количеством слоев - это глубокие архитектуры.

Однако алгоритм обучения обратного распространения, используемый в нейронных сетях, не работает хорошо, когда сеть очень глубокая. Изучение архитектуры в глубоких архитектурах («глубокое обучение») должно решить эту проблему. Например, машины Больцмана используют алгоритм контрастивного обучения.

Придумать глубокую архитектуру легко. Придумать алгоритм обучения, который хорошо работает для глубокой архитектуры, оказалось трудным.


Но кажется, что алгоритм обратного распространения по-прежнему используется для обучения оборотной и рекуррентной сетей, хотя они используют некоторые недавно разработанные методы численной оптимизации, такие как пакетная нормализация.
user3269

@ user3269 нормализация и выпадение партии - это примеры модификаций алгоритма обучения, чтобы заставить их хорошо работать в глубоких архитектурах.
Нил Г

0

Глубокое обучение требует нейронной сети, имеющей несколько слоев - каждый слой выполняет математические преобразования и вводит в следующий слой. Выход из последнего слоя является решением сети для данного входа. Слои между входным и выходным слоями называются скрытыми слоями.

Глубоко обучаемая нейронная сеть представляет собой массив перцептронов, связанных между собой слоями. Веса и смещение каждого персептрона в сети влияют на характер решения о выходе всей сети. В отлично настроенной нейронной сети все значения весов и смещений всего персептрона таковы, что решение о выходе всегда корректно (как и ожидалось) для всех возможных входов. Как настроены вес и смещение? Это происходит итеративно во время обучения сети - так называемое глубокое обучение. (Шарад Ганди)

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.