Вопросы с тегом «neural-networks»

Искусственные нейронные сети (ИНС) представляют собой широкий класс вычислительных моделей, в основе которых лежат биологические нейронные сети. Они включают в себя NN с прямой связью (включая "глубокие" NN), сверточные NN, рекуррентные NN и т. Д.

1
Обучение сверточной нейронной сети
В настоящее время я работаю над программным обеспечением для распознавания лиц, которое использует нейронные сети свертки для распознавания лиц. Основываясь на своих результатах, я понял, что сверточная нейронная сеть имеет общие веса, чтобы сэкономить время во время обучения. Но как адаптировать обратное распространение, чтобы его можно было использовать в сверточной …

2
Граница принятия решения для персептрона
Я пытаюсь построить границу решения алгоритма персептрона, и я действительно запутался в нескольких вещах. Мои входные экземпляры имеют форму , в основном это двумерный входной экземпляр ( x 1 и x 2 ) и целевое значение двоичного класса ( y ) [1 или 0].[(x1,x2),y][(x1,x2),y][(x_{1},x_{2}), y]x1x1x_{1}x2x2x_{2}yyy Следовательно, мой весовой вектор имеет …

2
Расчет VC-размерности нейронной сети
Если у меня есть некоторая фиксированная неповторяющаяся (DAG) топология (фиксированный набор узлов и ребер, но алгоритм обучения может варьировать вес по ребрам) сигмоидных нейронов с входными нейронами, которые могут принимать строки только в { - 1 , 1 } n в качестве входных данных и приводит к одному выходному сигналу …

2
Как улучшить стабильность нейронной сети?
Я использую нейронную сеть в R, чтобы построить NN с 14 входами и одним выходом. Я строю / обучаю сеть несколько раз, используя одни и те же входные данные обучения и ту же архитектуру / настройки сети. После создания каждой сети я использую ее на отдельном наборе тестовых данных для …

4
Почему бы нам просто не изучить гиперпараметры?
Я реализовывал довольно популярную статью « ОБЪЯСНЕНИЕ И ПРИМЕНЕНИЕ ОБОБЩЕННЫХ ПРИМЕРОВ », и в статье она обучает противоборствующей целевой функции. J '' (θ) = αJ (θ) + (1 - α) J '(θ). Он рассматривает α как гиперпараметр. α может быть 0,1, 0,2, 0,3 и т. д. Независимо от этой конкретной …

2
Разве несколько фильтров в сверточном слое не будут учить один и тот же параметр во время тренировки?
Основываясь на том, что я узнал, мы используем несколько фильтров в Conv Layer CNN для изучения различных детекторов функций. Но так как эти фильтры применяются одинаково (то есть скользят и умножаются на области ввода), разве они не изучат одни и те же параметры во время обучения? Следовательно, использование нескольких фильтров …

3
CIFAR-10 не может быть выше 60% точности, керас с бэкэндом Tensorflow [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто в прошлом году . Тренировка после 15 эпох в наборе данных CIFAR-10, кажется, делает потерю проверки больше не снижающейся, придерживаясь приблизительно 1,4 (с …

2
Может ли сверточная нейронная сеть принимать в качестве входных изображений разные размеры?
Я работаю в сети свертки для распознавания изображений, и мне было интересно, смогу ли я вводить изображения разных размеров (хотя и не сильно отличается). Об этом проекте: https://github.com/harvardnlp/im2markup Они говорят: and group images of similar sizes to facilitate batching Таким образом, даже после предварительной обработки изображения по-прежнему имеют разные размеры, …

4
Разница между нейронной сетью и глубоким обучением
С точки зрения различий между нейронной сетью и глубоким обучением мы можем перечислить несколько элементов, таких как добавление большего количества слоев, массивный набор данных, мощное компьютерное оборудование, чтобы сделать обучение сложной моделью. Помимо этого, есть ли более подробное объяснение различий между NN и DL?

1
Связь между скоростью обучения и количеством скрытых слоев?
Есть ли эмпирическое правило между глубиной нейронной сети и скоростью обучения? Я заметил, что чем глубже сеть, тем ниже должна быть скорость обучения. Если это правильно, то почему?

2
Графические модели и машины Больцмана связаны математически?
Хотя я фактически занимался программированием на машинах Больцмана в классе физики, я не знаком с их теоретической характеристикой. Напротив, я знаю скромное количество о теории графических моделей (о первых нескольких главах книги Лауритцена « Графические модели» ). Вопрос: Есть ли какая-либо значимая связь между графическими моделями и машиной Больцмана? Является …

3
Можно ли обучить нейронную сеть рисовать картинку в определенном стиле?
Можно ли научить нейронную сеть рисовать картинку в определенном стиле? (Таким образом, он берет изображение и перерисовывает его в стиле, для которого он был обучен.) Есть ли одобренная технология для такого рода вещей? Я знаю об алгоритме DeepArt. Хорошо заполнить основное изображение определенным рисунком (например, vangoghify image), но я ищу …

1
Обычно нейронным сетям требуется время, чтобы «включиться» во время тренировки?
Я пытаюсь обучить глубокую нейронную сеть для классификации, используя обратное распространение. В частности, я использую сверточную нейронную сеть для классификации изображений, используя библиотеку Tensor Flow. Во время тренировок я испытываю какое-то странное поведение, и мне просто интересно, типично ли это, или я что-то делаю не так. Итак, моя сверточная нейронная …

1
Однослойная NeuralNetwork с активацией ReLU, равной SVM?
Предположим, у меня есть простая однослойная нейронная сеть с n входами и одним выходом (задача двоичной классификации). Если я установлю функцию активации в выходном узле как сигмовидную функцию, то результатом будет классификатор логистической регрессии. В этом же сценарии, если я изменю выходную активацию на ReLU (выпрямленная линейная единица), то будет …

1
Как создать простой персептрон?
Задачи классификации с нелинейными границами не могут быть решены простым персептроном . Следующий код R предназначен для иллюстративных целей и основан на этом примере в Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.