Вопросы с тегом «deep-learning»

новая область исследований в области машинного обучения, связанная с технологиями, используемыми для изучения иерархического представления данных, в основном с глубокими нейронными сетями (т. е. с двумя или более скрытыми слоями), а также с какими-то вероятностными графическими моделями.



1
В чем разница между повышением частоты дискретизации и билинейным повышением частоты дискретизации в CNN?
Я пытаюсь понять эту статью и не уверен, что такое билинейное повышение частоты дискретизации. Кто-нибудь может объяснить это на высоком уровне? https://arxiv.org/abs/1606.00915

2
Визуализация глубокого обучения нейронной сети
Я пытаюсь найти эквивалент диаграмм Хинтона для многослойных сетей, чтобы построить вес во время обучения. Обученная сеть в некоторой степени похожа на Deep SRN, т. Е. Имеет большое количество матриц с несколькими весами, что делает одновременное построение нескольких диаграмм Хинтона визуально запутанным. Кто-нибудь знает хороший способ визуализации процесса обновления веса …

5
Почему добавление слоя отсева улучшает производительность глубокого / машинного обучения, учитывая, что выпадение подавляет некоторые нейроны из модели?
Если удаление некоторых нейронов приводит к более эффективной модели, почему бы не использовать более простую нейронную сеть с меньшим количеством слоев и меньшим количеством нейронов? Зачем строить большую, более сложную модель в начале, а потом подавлять ее?

3
Почему в свертках всегда используются нечетные числа в качестве filter_size
Если мы посмотрим на 90-99% статей, опубликованных с использованием CNN (ConvNet). Подавляющее большинство из них использует размер фильтра нечетных чисел : {1, 3, 5, 7} для наиболее часто используемых. Эта ситуация может привести к некоторой проблеме: при таких размерах фильтров операция свертки обычно не идеальна с заполнением 2 (обычное заполнение), …

2
Почему инициализация весов и смещений должна быть выбрана около 0?
Я прочитал это: Чтобы обучить нашу нейронную сеть, мы инициализируем каждый параметр W (l) ijWij (l) и каждый b (l) ibi (l) к небольшому случайному значению около нуля (скажем, согласно нормальному (0, 02) нормальному (0) , ϵ2) распределение для некоторого малого ϵϵ, скажем 0,01) из учебников Стэнфорда по углубленному изучению …

1
Что такое 1D сверточный слой в глубоком обучении?
У меня есть хорошее общее представление о роли и механизме сверточных слоев в Deep Learning для обработки изображений в случае реализации 2D или 3D - они «просто» пытаются поймать 2D-шаблоны в изображениях (в 3 каналах в случае 3D). Но недавно я столкнулся с одномерными сверточными слоями в контексте обработки естественного …

3
Должен ли я использовать графический процессор или процессор для вывода?
Я управляю нейронной сетью глубокого обучения, которая была обучена графическим процессором. Теперь я хочу развернуть это на нескольких хостах для вывода. Вопрос в том, каковы условия, чтобы решить, следует ли мне использовать GPU или CPU для вывода? Добавление более подробной информации из комментариев ниже. Я новичок в этом, поэтому руководство …

4
Интервал прогнозирования вокруг прогноза временных рядов LSTM
Существует ли метод для расчета интервала прогнозирования (распределения вероятностей) вокруг прогноза временного ряда из нейронной сети LSTM (или другой рекуррентной)? Скажем, например, я прогнозирую 10 выборок в будущем (от t + 1 до t + 10), основываясь на последних 10 наблюдаемых выборках (от t-9 до t), я ожидаю, что прогноз …

3
Как глубоко обучение NNS различного сейчас (2016) от тех, которые я изучал только 4 года назад (2012)?
В Википедии и deeplearning4j сказано, что NN с глубоким обучением (DLNN) - это NN, которые имеют> 1 скрытый слой. Подобные NN были стандартными в университете для меня, в то время как DLNN сейчас очень популярны. Был там, сделал это - в чем дело? Я также слышал, что сложенные NN считаются …

2
Есть ли возможность изменить показатель, используемый обратным вызовом ранней остановки в Керасе?
При использовании обратного вызова ранней остановки в Keras обучение останавливается, когда некоторая метрика (обычно потеря проверки) не увеличивается. Есть ли способ использовать другую метрику (например, точность, отзыв, f-мера) вместо потери проверки? Все примеры, которые я видел до сих пор, похожи на этот: callbacks.EarlyStopping (monitor = 'val_loss', терпение = 5, verbose …

1
Многозадачное обучение в Керасе
Я пытаюсь реализовать общие слои в Keras. Я вижу, что Keras имеет keras.layers.concatenate, но я не уверен в документации о его использовании. Могу ли я использовать его для создания нескольких общих слоев? Как лучше всего реализовать простую общую нейронную сеть, как показано ниже, с использованием Keras? Обратите внимание, что все …


2
Потери и точность проверки остаются постоянными
Я пытаюсь реализовать эту статью на множестве медицинских изображений. Я делаю это в Керасе. Сеть по существу состоит из 4 слоев conv и max-pool, за которыми следуют полностью связанный слой и программный классификатор max. Насколько я знаю, я следовал архитектуре, упомянутой в статье. Однако потери и точность проверки просто остаются …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.