Вопросы с тегом «deep-learning»

новая область исследований в области машинного обучения, связанная с технологиями, используемыми для изучения иерархического представления данных, в основном с глубокими нейронными сетями (т. е. с двумя или более скрытыми слоями), а также с какими-то вероятностными графическими моделями.

5
Неуправляемая сегментация изображения
Я пытаюсь реализовать алгоритм, где дано изображение с несколькими объектами на плоской таблице, желательным является вывод масок сегментации для каждого объекта. В отличие от CNN, целью здесь является обнаружение объектов в незнакомой среде. Каковы лучшие подходы к этой проблеме? Кроме того, есть ли примеры реализации, доступные онлайн? Изменить: Извините, вопрос, …

1
Keras LSTM с 1D временными рядами
Я изучаю, как использовать Keras, и я добился разумного успеха с моим помеченным набором данных, используя примеры в Chollet Deep Learning for Python . Набор данных ~ 1000 временных рядов с длиной 3125 с 3 потенциальными классами. Я хотел бы выйти за рамки базовых плотных слоев, которые дают мне около …

1
Что такое «новый алгоритм обучения подкреплению» в AlphaGo Zero?
По какой-то причине AlphaGo Zero не пользуется такой же популярностью, как оригинальный AlphaGo, несмотря на его невероятные результаты. Начиная с нуля, он уже побеждал AlphaGo Master и прошел множество других тестов. Еще более невероятно, что это сделано за 40 дней. Google называет его «возможно лучшим игроком в го в мире» …

1
Изменение формы данных для глубокого обучения с использованием Keras
Я новичок в Keras, и я начал с примера MNIST, чтобы понять, как на самом деле работает библиотека. Фрагмент кода проблемы MNIST в папке примера Keras имеет вид: import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, …

1
Преобразование автоэнкодеров
Я только что прочитал статью Джеффа Хинтона о преобразовании автоэнкодеров Хинтон, Крижевский и Ван: Преобразование авто-кодировщиков . В искусственных нейронных сетях и машинном обучении, 2011. и очень хотел бы поиграть с чем-то вроде этого. Но, прочитав его, я не смог получить достаточно подробностей из статьи о том, как я мог …

2
Каковы различия между Convolutional1D, Convolutional2D и Convolutional3D?
Я узнал о сверточных нейронных сетях. При рассмотрении Kerasпримеров я натолкнулся на три различных метода свертки. А именно, 1D, 2D & 3D. Каковы различия между этими тремя слоями? Каковы их варианты использования? Есть ли ссылки или ссылки, чтобы показать их варианты использования?

2
Сортировка номеров, используя только 2 скрытых слоя
Я читаю основополагающую статью Илья Суцкевер и Куок Ле, « Последовательность к обучению последовательностей с использованием нейронных сетей ». На первой странице кратко упоминается, что: A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 hidden layers of quadratic size Кто-нибудь …

4
Почему это ускоряет градиентный спуск, если функция плавная?
Сейчас я читаю книгу под названием «Практическое машинное обучение с Scikit-Learn и TensorFlow», а в главе 11 она содержит следующее описание объяснения ELU (Exponential ReLU). В-третьих, функция является гладкой везде, в том числе около z = 0, что помогает ускорить градиентный спуск, так как она не отскакивает так сильно слева …

1
Почему TensorFlow не может соответствовать простой линейной модели, если я минимизирую абсолютную среднюю ошибку вместо среднеквадратичной ошибки?
Во введении я только что изменился loss = tf.reduce_mean(tf.square(y - y_data)) в loss = tf.reduce_mean(tf.abs(y - y_data)) и модель не в состоянии узнать, потеря только стала больше со временем. Почему?

2
У Relu есть градиент 0 по определению, тогда почему исчезновение градиента не является проблемой для x <0?
По определению, Relu есть max(0,f(x)). Затем ее градиент определяется как: 1 if x &gt; 0 and 0 if x &lt; 0. Не означает ли это, что градиент всегда равен 0 (исчезает), когда x &lt;0? Тогда почему мы говорим, что Relu не страдает от проблемы градиентного исчезновения?

1
КАК: Инициализация веса глубоких нейронных сетей
Учитывая сложную задачу обучения (например, высокую размерность, сложность данных), глубокие нейронные сети становятся сложными для обучения. Чтобы облегчить многие из проблем, можно: Нормализовать &amp;&amp; данные качества отобранных вручную выберите другой алгоритм обучения (например, RMSprop вместо Gradient Descent) выберите функцию более крутого градиента стоимости (например, перекрестная энтропия вместо MSE) Используйте другую …

1
Как рассчитать дельта-член сверточного слоя, учитывая дельта-члены и веса предыдущего сверточного слоя?
Я пытаюсь обучить искусственную нейронную сеть с двумя сверточными слоями (с1, с2) и двумя скрытыми слоями (с1, с2). Я использую стандартный подход обратного распространения. При обратном проходе я вычисляю член ошибки слоя (дельта) на основе ошибки предыдущего слоя, весов предыдущего слоя и градиента активации относительно функции активации текущего слоя. Более …

1
Почему моя модель Keras учится распознавать фон?
Я пытаюсь обучить эту реализацию Keras Deeplabv3 + на Pascal VOC2012, используя предварительно обученную модель (которая также обучалась на этом наборе данных). Я получил странные результаты с точностью, быстро сходящейся к 1,0: 5/5 [==============================] - 182s 36s/step - loss: 26864.4418 - acc: 0.7669 - val_loss: 19385.8555 - val_acc: 0.4818 Epoch …

2
Означает ли пакетная нормализация, что сигмоиды работают лучше, чем ReLU?
Пакетная нормализация и ReLU являются решениями проблемы исчезающего градиента. Если мы используем пакетную нормализацию, должны ли мы тогда использовать сигмоиды? Или есть функции ReLU, которые делают их полезными даже при использовании batchnorm? Я предполагаю, что нормализация, выполненная в batchnorm, отправит ноль активаций отрицательно. Означает ли это, что batchnorm решает проблему …

2
какие методы машинного / глубокого обучения / nlp используются для классификации данных слов как имени, номера мобильного телефона, адреса, адреса электронной почты, штата, округа, города и т. д.
Я пытаюсь создать интеллектуальную модель, которая может сканировать набор слов или строк и классифицировать их как имена, мобильные номера, адреса, города, штаты, страны и другие объекты, используя машинное обучение или глубокое обучение. Я искал подходы, но, к сожалению, не нашел подходов. Я пытался с моделью слова мешок и вложения слова …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.