Вопросы с тегом «conv-neural-network»

Сверточные нейронные сети - это тип нейронной сети, в которой существуют только подмножества возможных соединений между слоями для создания перекрывающихся областей. Они обычно используются для визуальных задач.

2
Есть ли математические причины для свертки в нейронных сетях сверх целесообразности?
В сверточных нейронных сетях (CNN) матрица весов на каждом шаге переворачивает свои строки и столбцы для получения матрицы ядра, прежде чем приступить к свертке. Это объясняется в серии видео Хьюго Ларошелле здесь : Вычисление скрытых карт будет соответствовать выполнению дискретной свертки с каналом из предыдущего уровня с использованием матрицы ядра …


2
CNN ксавье инициализация веса
В некоторых уроках я обнаружил, что было указано, что инициализация весов «Ксавье» (статья: Понимание сложности обучения глубоких нейронных сетей с прямой связью ) является эффективным способом инициализации весов нейронных сетей. Для полностью связанных слоев в этих уроках было практическое правило: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, \quad \text{simpler alternative:} …

3
Теорема универсальной аппроксимации для сверточных сетей
Теорема универсального приближения является довольно известным результатом для нейронных сетей, в основном утверждая, что при некоторых допущениях функция может быть равномерно аппроксимирована нейронной сетью с любой точностью. Есть ли аналогичный результат, применимый к сверточным нейронным сетям?

2
Модель Google Inception: почему существует несколько softmax?
Топологию модели Google Inception можно найти здесь: Google Inception Netowrk Я заметил, что в этой модели есть 3 слоя softmax (# 154, # 152, # 145), и 2 из них являются своего рода ранним выходом из этой модели. Из того, что я знаю, слой softmax предназначен для окончательного вывода, так …

3
Может ли нейронная сеть (например, сверточная нейронная сеть) иметь отрицательные веса?
Можно ли иметь отрицательные веса (после достаточного количества эпох) для глубоких сверточных нейронных сетей, когда мы используем ReLU для всех уровней активации?

5
Существует ли визуальный инструмент для проектирования и применения нейронных сетей / глубокого обучения? [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыт 10 месяцев назад . Я знаю, что есть много библиотек для машинного обучения и глубокого обучения, таких как caffe, Theano, TensorFlow, keras, ... …


4
В CNN, апсэмплинг и транспонирование свертки - то же самое?
Термины «повышающая дискретизация» и «транспонированная свертка» используются, когда вы делаете «деконволюцию» (<- не очень хороший термин, но позвольте мне использовать его здесь). Первоначально я думал, что они означают одно и то же, но мне кажется, что они разные после того, как я прочитал эти статьи. кто-нибудь может уточнить, пожалуйста? Транспонировать …

1
Что именно представляет собой блок остаточного обучения в контексте глубоких остаточных сетей в глубоком обучении?
Я читал статью « Глубокое остаточное обучение для распознавания изображений», и мне было трудно со 100% -ной уверенностью понять, что остаточный блок влечет за собой в вычислительном отношении. Читая их бумагу, у них есть рисунок 2: который иллюстрирует то, что должен быть Остаточный Блок. Является ли вычисление остаточного блока просто …

2
Как работает операция DepthConcat в «Идти глубже с извилинами»?
Чтение Углубляясь в свертки, я наткнулся на слой DepthConcat , строительный блок предлагаемых начальных модулей , который объединяет выходные данные нескольких тензоров различного размера. Авторы называют это «Фильтр конкатенации». Там , как представляется , реализация для Torch , но я не очень понимаю, что это делает. Может кто-нибудь объяснить простыми …

2
Выбор размера фильтра, шагов и т. Д. В CNN?
Я смотрел лекции CS231N из Стэнфорда и пытался обдумать некоторые проблемы в архитектуре CNN. Я пытаюсь понять, есть ли какие-то общие рекомендации по выбору размера сверточного фильтра и тому подобное, или это больше искусство, чем наука? Я понимаю, что объединение существует главным образом для того, чтобы вызвать некоторую форму неизменности …

3
Нелинейность перед конечным слоем Softmax в сверточной нейронной сети
Я изучаю и пытаюсь реализовать сверточные нейронные сети, но я полагаю, что этот вопрос относится к многослойным персептронам в целом. Выходные нейроны в моей сети представляют активацию каждого класса: самый активный нейрон соответствует предсказанному классу для данного входа. Чтобы учесть стоимость кросс-энтропии для обучения, я добавляю слой softmax в конце …

5
Какую функцию потери я должен использовать для двоичного обнаружения в обнаружении лица / не лица в CNN?
Я хочу использовать глубокое обучение для обучения двоичному обнаружению лица / лица, какую потерю я должен использовать, я думаю, что это SigmoidCrossEntropyLoss или Hinge-loss . Это правильно, но мне также интересно, должен ли я использовать softmax, но только с двумя классами?

2
Почему CNN заканчиваются слоями FC?
Насколько я понимаю, CNN состоят из двух частей. Первая часть (слои conv / pool), которая выполняет извлечение объектов, и вторая часть (слои fc), которая выполняет классификацию по объектам. Поскольку полностью связанные нейронные сети не являются лучшими классификаторами (т.е. они в большинстве случаев выигрывают у SVM и RF), почему CNN заключают …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.