Вопросы с тегом «neural-networks»

Искусственные нейронные сети (ИНС) представляют собой широкий класс вычислительных моделей, в основе которых лежат биологические нейронные сети. Они включают в себя NN с прямой связью (включая "глубокие" NN), сверточные NN, рекуррентные NN и т. Д.

4
Text Mining: как кластеризовать тексты (например, новостные статьи) с помощью искусственного интеллекта?
Я построил некоторые нейронные сети (MLP (полностью подключенные), Elman (рекуррентные)) для различных задач, таких как игра в понг, классификация рукописных цифр и прочее ... Кроме того, я попытался создать несколько первых сверточных нейронных сетей, например, для классификации многозначных рукописных заметок, но я совершенно новичок в анализе и кластеризации текстов, например, …

4
Что такое * искусственная нейронная сеть?
Когда мы углубимся в литературу по нейронным сетям , мы сможем идентифицировать другие методы с нейроморфными топологиями (архитектура, подобная «нейронной сети»). И я не говорю о теореме универсального приближения . Примеры приведены ниже. Тогда это заставляет меня задуматься: каково определение искусственной нейронной сети? Его топология, кажется, охватывает все. Примеры: Одна …

2
Нейронные сети против всего остального
Я не нашел удовлетворительного ответа на этот вопрос от Google . Конечно, если у меня есть данные порядка нескольких миллионов, то глубокое обучение - это путь. И я прочитал, что, когда у меня нет больших данных, тогда, возможно, лучше использовать другие методы в машинном обучении. Приведенная причина является чрезмерной. Машинное …

2
Почему это предсказание временного ряда «довольно плохое»?
Я пытаюсь научиться использовать нейронные сети. Я читал этот урок . После подбора нейронной сети по временному ряду, используя значение в для прогнозирования значения в момент времени t + 1, автор получает следующий график, где синяя линия - это временной ряд, зеленый - это прогноз данных поезда, красный - это …

3
Минимальное количество слоев в глубокой нейронной сети
В какой момент мы начинаем классифицировать многослойные нейронные сети как глубокие нейронные сети или иначе говоря: «Каково минимальное количество слоев в глубокой нейронной сети?»

1
Сумма или среднее градиентов в (мини) пакетном градиенте приличное?
Когда я реализовал мини-пакетный градиент приличный, я просто усреднил градиенты всех примеров в обучающей партии. Тем не менее, я заметил, что сейчас оптимальная скорость обучения намного выше, чем для приличного онлайн градиента. Моя интуиция заключается в том, что это происходит из-за того, что усредненный градиент менее шумный и, таким образом, …

4
Сколько данных вам нужно для сверточной нейронной сети?
Если у меня есть сверточная нейронная сеть (CNN), которая имеет около 1 000 000 параметров, сколько нужно обучающих данных (предположим, я делаю стохастический градиентный спуск)? Есть ли эмпирическое правило? Дополнительные примечания: Когда я выполнил стохастический градиентный спуск (например, 64 патча за 1 итерацию), после ~ 10000 итераций точность классификатора может …

1
Почему один ReLU не может выучить ReLU?
В качестве продолжения Моей нейронной сети не могу даже изучить евклидово расстояние, я упростил еще больше и попытался обучить один ReLU (со случайным весом) одному ReLU. Это самая простая сеть, которая существует, и все же половину времени она не может сходиться. Если исходное предположение имеет ту же ориентацию, что и …

2
Как обновляются веса в методе пакетного обучения в нейронных сетях?
Может кто-нибудь сказать мне, как я должен построить нейронную сеть, используя пакетный метод? Я прочитал, что в пакетном режиме для всех выборок в обучающем наборе мы вычисляем ошибку, дельту и, следовательно, веса дельты для каждого нейрона в сети, а затем вместо немедленного обновления весов мы накапливаем их, а затем перед …


6
Почему мы должны перетасовывать данные во время обучения нейронной сети?
Во время мини-пакетного обучения нейронной сети я слышал, что важной практикой является перетасовывание данных обучения перед каждой эпохой. Может кто-нибудь объяснить, почему тасование в каждую эпоху помогает? Из поиска Google, я нашел следующие ответы: это помогает тренировке сходиться быстро предотвращает смещение во время тренировки это мешает модели узнать порядок обучения …

1
Почему важно включить термин коррекции смещения для оптимизатора Adam для Deep Learning?
Я читал об оптимизаторе Адама для глубокого обучения и натолкнулся на следующее предложение в новой книге Бегнио, Гудфеллоу и Кортвилла « Глубокое обучение »: Адам включает поправки смещения к оценкам как моментов первого порядка (члена импульса), так и (нецентрированных) моментов второго порядка, чтобы учесть их инициализацию в начале координат. Кажется, …

1
Влияет ли проклятие размерности на некоторые модели больше, чем на другие?
Места, которые я читал о проклятии размерности, объясняют его в первую очередь в связи с kNN и линейными моделями в целом. Я регулярно вижу топ-рейтингов в Kaggle, использующих тысячи функций в наборе данных, который вряд ли имеет 100 тыс. Точек данных. Они в основном используют Boosted деревья и NN, среди …

1
Что измерение VC говорит нам о глубоком обучении?
В базовом машинном обучении нас учат следующим «правилам большого пальца»: а) размер ваших данных должен как минимум в 10 раз превышать размер VC вашего набора гипотез. б) нейронная сеть с N соединениями имеет размерность VC приблизительно N. Итак, когда в нейронной сети с глубоким обучением говорят, миллионы единиц, значит ли …

2
Есть ли математические причины для свертки в нейронных сетях сверх целесообразности?
В сверточных нейронных сетях (CNN) матрица весов на каждом шаге переворачивает свои строки и столбцы для получения матрицы ядра, прежде чем приступить к свертке. Это объясняется в серии видео Хьюго Ларошелле здесь : Вычисление скрытых карт будет соответствовать выполнению дискретной свертки с каналом из предыдущего уровня с использованием матрицы ядра …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.