Вопросы с тегом «deep-learning»

Глубокое обучение - это область машинного обучения, целью которой является изучение сложных функций с использованием специальных архитектур нейронных сетей, которые являются «глубокими» (состоят из многих слоев). Этот тег следует использовать для вопросов о реализации архитектур глубокого обучения. Общие вопросы по машинному обучению должны быть помечены как "машинное обучение". Включение тега для соответствующей библиотеки программного обеспечения (например, «keras», «tensorflow», «pytorch», «fast.ai» и т. Д.) Полезно.


3
Понимание LSTM Keras
Я пытаюсь согласовать свое понимание LSTM и указал здесь в этом посте Кристофером Олахом, реализованным в Керасе. Я слежу за блогом, написанным Джейсоном Браунли для учебника Keras. То, что я в основном смущен о том, Преобразование ряда данных в [samples, time steps, features]и, LSTM с состоянием Давайте сосредоточимся на двух …

15
В чем разница между заполнением 'SAME' и 'VALID' в tf.nn.max_pool of tenorflow?
В чем разница между «SAME» и «ДЕЙСТВИТЕЛЬНО» обивкой в tf.nn.max_poolиз tensorflow? По моему мнению, «VALID» означает, что после краев не будет нуля. Согласно Руководству по арифметике свертки для глубокого обучения , в нем говорится, что в операторе пула не будет заполнения, т.е. просто используйте 'VALID' of tensorflow. Но что такое …

2
Объяснение ввода Keras: input_shape, unit, batch_size, dim и т. Д.
Для любого слоя Keras ( Layerкласс), может кто - то объяснить , как понять разницу между input_shape, units, dimи т.д.? Например, в документе сказано unitsуказать форму вывода слоя. На изображении нейронной сети ниже hidden layer1имеется 4 единицы. Относится ли это непосредственно к unitsатрибуту Layerобъекта? Или unitsв Керасе форма каждого веса …

11
Что означает слово logits в TensorFlow?
В следующей функции TensorFlow мы должны обеспечить активацию искусственных нейронов в последнем слое. Это я понимаю. Но я не понимаю, почему это называется логитс? Разве это не математическая функция? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels = target_output )

3
Как интерпретировать «потери» и «точность» для модели машинного обучения
Когда я тренировал свою нейронную сеть с помощью Theano или Tensorflow, они сообщали о переменной, называемой «потерями» за эпоху. Как я должен интерпретировать эту переменную? Чем выше потери, тем лучше или хуже, или что это значит для конечной производительности (точности) моей нейронной сети?

5
Лучший способ сохранить обученную модель в PyTorch?
Я искал альтернативные способы сохранить обученную модель в PyTorch. Пока что я нашел две альтернативы. torch.save () для сохранения модели и torch.load () для загрузки модели. model.state_dict () для сохранения обученной модели и model.load_state_dict () для загрузки сохраненной модели. Я сталкивался с этим обсуждением, где подход 2 рекомендуется по подходу …

11
Почему двоичные_кросентропии и категориальные_кросентропии дают разные результаты для одной и той же проблемы?
Я пытаюсь обучить Си-Эн-Эн классифицировать текст по темам. Когда я использую двоичную кросс-энтропию, я получаю точность ~ 80%, с категориальной кросс-энтропией я получаю точность ~ 50%. Я не понимаю, почему это так. Это проблема мультикласса, не означает ли это, что я должен использовать категорическую перекрестную энтропию и что результаты с …

8
Что делает функция tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Я не могу понять обязанность этой функции. Это как справочная таблица? Что означает вернуть параметры, соответствующие каждому идентификатору (в идентификаторах)? Например, в skip-gramмодели, если мы используем tf.nn.embedding_lookup(embeddings, train_inputs), то для каждого train_inputона находит соответствующее вложение?

10
Керас, как получить выход каждого слоя?
Я обучил бинарную модель классификации с CNN, и вот мой код model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) # …

13
Почему необходимо использовать нелинейную функцию активации в нейронной сети обратного распространения? [закрыто]
Закрыто. Этот вопрос не соответствует рекомендациям по переполнению стека . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме Stack Overflow. Закрыт 3 месяца назад . Уточните этот вопрос Я читал кое-что о нейронных сетях и понимаю общий принцип однослойной нейронной сети. …


5
Какова роль Flatten в Керасе?
Я пытаюсь понять роль Flattenфункции в Керасе. Ниже мой код, который представляет собой простую двухуровневую сеть. Он принимает двумерные данные формы (3, 2) и выводит одномерные данные формы (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], [3, 4], [5, 6]]]) y …

2
Примеры от многих к одному и от многих ко многим LSTM в Керасе
Я пытаюсь понять LSTM и как их создавать с помощью Keras. Я обнаружил, что в основном есть 4 режима для запуска RNN (4 правые на картинке) Источник изображения: Андрей Карпаты Теперь мне интересно, как будет выглядеть минималистичный фрагмент кода для каждого из них в Keras. Так что-то вроде model = …

4
Архитектура многослойного персептрона (MLP): критерии выбора количества скрытых слоев и размера скрытого слоя?
Если у нас есть 10 собственных векторов, то у нас может быть 10 нейронных узлов во входном слое. Если у нас есть 5 выходных классов, то у нас может быть 5 узлов в выходном слое. Но каковы критерии выбора количества скрытых слоев в MLP и сколько нейронных узлы в 1 …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.