Вопросы с тегом «neural-networks»

Искусственные нейронные сети (ИНС) представляют собой широкий класс вычислительных моделей, в основе которых лежат биологические нейронные сети. Они включают в себя NN с прямой связью (включая "глубокие" NN), сверточные NN, рекуррентные NN и т. Д.

2
Повышение нейронных сетей
В последнее время я работал над алгоритмами повышения обучаемости, такими как adaboost, ускорение градиента, и я знал тот факт, что наиболее часто используемым слабым учеником являются деревья. Я действительно хочу знать, есть ли некоторые недавние успешные примеры (я имею в виду некоторые статьи или статьи) для использования нейронных сетей в …

2
Сверточная нейронная сеть для временных рядов?
Я хотел бы знать, существует ли код для обучения сверточной нейронной сети для классификации временных рядов. Я видел несколько недавних работ ( http://www.fer.unizg.hr/_download/repository/KDI-Djalto.pdf ), но я не уверен, существует ли что-то или я должен написать это самостоятельно.

3
От правила персептрона к градиентному спуску: чем отличаются перцептроны с функцией активации сигмовидной кишки от логистической регрессии?
По сути, мой вопрос заключается в том, что в многослойных персептронах персептроны используются с сигмовидной активационной функцией. Так что в правиле обновления у вычисляется какY^Y^\hat{y} Y^= 11 + опыт( - шTИкся)Y^знак равно11+ехр⁡(-весTИкся)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} Чем этот «сигмовидный» персептрон отличается от логистической регрессии? Я бы сказал , что однослойный персептрон сигмовидной …

5
Причина не сокращения срока смещения (перехвата) в регрессии
Для линейной модели y=β0+xβ+εYзнак равноβ0+Иксβ+εy=\beta_0+x\beta+\varepsilon сжимающий член всегда равен P(β)п(β)P(\beta) . В чем причина того, что мы не уменьшаем смещение (перехват) члена β0β0\beta_0 ? Должны ли мы сократить срок смещения в моделях нейронных сетей?

5
Современные нейронные сети, которые строят свою собственную топологию
Ограничение стандартных алгоритмов нейронной сети (например, backprop) заключается в том, что вам необходимо принять решение о том, сколько скрытых слоев и нейронов на слой вы хотите. Как правило, скорость обучения и обобщения очень чувствительны к этому выбору. Это было причиной, почему алгоритмы нейронной сети, такие как каскадная корреляция , вызывают …

5
Как мне улучшить мою нейронную сеть при прогнозировании синусоидальных волн?
Вот, посмотрите: вы можете точно увидеть, где заканчиваются тренировочные данные. Тренировочные данные идут от до 1 .- 1-1-1111 Я использовал Keras и плотную сеть 1-100-100-2 с активацией tanh. Я вычисляю результат по двум значениям, p и q как p / q. Таким образом, я могу получить любой размер числа, используя …

3
Потеря обучения увеличивается со временем [дубликат]
На этот вопрос уже есть ответы здесь : Как изменение функции стоимости может быть положительным? (1 ответ) Что мне делать, если моя нейронная сеть не учится? (5 ответов) Закрыто в прошлом месяце . Я тренирую модель (Recurrent Neural Network), чтобы классифицировать 4 типа последовательностей. Во время тренировок я вижу, что …

2
Каковы преимущества использования ReLU по сравнению с softplus в качестве функций активации?
Часто упоминается, что выпрямленные линейные единицы (ReLU) вытеснили единицы softplus, потому что они линейны и быстрее вычисляются. Есть ли у softplus преимущество в том, что оно вызывает редкость или оно ограничено ReLU? Причина, по которой я спрашиваю, заключается в том, что я задаюсь вопросом о негативных последствиях нулевого уклона ReLU. …

2
Как и почему Пакетная нормализация использует скользящие средние для отслеживания точности модели во время обучения?
Я читал статью о пакетной нормализации (BN) (1) и не понимал необходимости использовать скользящие средние для отслеживания точности модели, и даже если я признал, что это было правильно, я не понимаю что они делают точно. Насколько я понимаю (что я могу ошибаться), в статье упоминается, что она использует статистику населения, …

2
Почему функция softmax используется для вычисления вероятностей, хотя мы можем разделить каждое значение на сумму вектора?
Применение функции softmax к вектору даст «вероятности» и значения между и . 000111 Но мы также можем разделить каждое значение на сумму вектора, и это даст вероятности и значения между и .000111 Я прочитал ответ здесь, но он говорит, что причина в том, что он дифференцируем, хотя обе функции дифференцируемы.

2
В чем разница между инициализатором масштабирования дисперсии и инициализатором xavier?
Я обнаружил, что в реализации ResNet от Tensorflow они используют инициализатор дисперсионного масштабирования, а также популярный инициализатор xavier . У меня нет большого опыта в этом, что лучше на практике?

1
От байесовских сетей к нейронным сетям: как многомерная регрессия может быть перенесена в сеть с несколькими выходами
Я имею дело с байесовской иерархической линейной моделью , здесь описывается сеть. представляет ежедневные продажи продукта в супермаркете (наблюдается).YYY - известная матрица регрессоров, включая цены, акции, день недели, погоду, праздники.XXX - неизвестный уровень скрытого запаса каждого продукта, который вызывает большинство проблем и который я считаю вектором двоичных переменных, по одному …

4
Данные об угле кодирования для нейронной сети
Я тренирую нейронную сеть (детали не важны), где целевые данные - это вектор углов (между 0 и 2 * пи). Я ищу совет о том, как кодировать эти данные. Вот что я сейчас пытаюсь (с ограниченным успехом): 1) Кодирование 1-в-C: я устанавливаю возможные углы в 1000 или около того дискретных …

1
Как настроить нейронную сеть для вывода порядковых данных?
У меня есть нейронная сеть, настроенная для предсказания чего-то, где выходная переменная является порядковой. Я опишу ниже, используя три возможных выхода A <B <C. Совершенно очевидно, как использовать нейронную сеть для вывода категориальных данных: выходные данные - это просто максимальное значение последнего (обычно полностью подключенного) слоя, по одному на категорию, …

4
Разница между обратной связью RNN и LSTM / GRU
Я пытаюсь понять различные архитектуры рекуррентных нейронных сетей (RNN), которые должны применяться к данным временных рядов, и меня немного путают с разными именами, которые часто используются при описании RNN. Является ли структура долгосрочной кратковременной памяти (LSTM) и Gated Recurrent Unit (GRU) по сути RNN с контуром обратной связи?

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.