Вопросы с тегом «deep-learning»

Для вопросов, связанных с глубоким обучением, которое относится к подмножеству методов машинного обучения, основанных на искусственных нейронных сетях (ANN) с несколькими скрытыми слоями. Таким образом, прилагательное глубокой относится к числу слоев ANN. Выражение «глубокое обучение», по-видимому, было введено (хотя и не в контексте машинного обучения или ANN) в 1986 году Риной Дехтер в статье «Обучение во время поиска в проблемах удовлетворения-ограничения».

3
Кто-нибудь думал о том, чтобы заставить нейронную сеть задавать вопросы, а не только отвечать на них?
Большинство людей пытается ответить на вопрос с помощью нейронной сети. Однако кто-нибудь придумал, как заставить нейронную сеть задавать вопросы, а не отвечать на вопросы? Например, если CNN может решить, к какой категории относится объект, то может ли он задать какой-то вопрос, чтобы помочь классификации?

2
Кодирование ввода / вывода для нейронной сети для изучения игры на основе сетки
Я пишу простую игрушечную игру, целью которой является обучение глубокой нейронной сети. Правила игры примерно следующие: В игре есть доска, состоящая из шестиугольных ячеек. Оба игрока имеют одинаковую коллекцию фигур, которую они могут свободно размещать на доске. Размещая различные типы фигур, начисляйте очки (или уменьшайте очки противника) в зависимости от …

3
Как реализовать ограниченное пространство действий в обучении подкреплению?
Я кодирую модель обучения подкреплению с агентом PPO благодаря очень хорошей библиотеке Tensorforce , построенной поверх Tensorflow. Первая версия была очень простой, и теперь я погружаюсь в более сложную среду, где не все действия доступны на каждом этапе. Допустим, есть 5 действий, и их доступность зависит от внутреннего состояния (которое …


2
Как работают генеративные состязательные сети?
Я читаю о порождающих состязательных сетях (GAN), и у меня есть некоторые сомнения относительно этого. До сих пор я понимаю, что в GAN существует два разных типа нейронных сетей: один является порождающим ( ), а другой - дискриминационным ( ). Генеративная нейронная сеть генерирует некоторые данные, которые дискриминационная нейронная сеть …

1
Как будет масштабироваться новый «дифференцируемый нейронный компьютер» Deepmind?
Deepmind только что опубликовал статью о «дифференцируемом нейронном компьютере» , который в основном объединяет нейронную сеть с памятью . Идея состоит в том, чтобы научить нейронную сеть создавать и вызывать полезные явные воспоминания для определенной задачи. Это хорошо дополняет возможности нейронной сети, поскольку сети NN неявно хранят знания только в …

2
Есть ли какой-либо научный / математический аргумент, который мешает глубокому обучению создавать сильный ИИ?
Я читаю книгу Иудеи Перл « Книга почему» , в которой он упоминает, что глубокое обучение - это просто прославленная технология подбора кривых, и она не сможет производить интеллект, подобный человеку. Из его книги приведена схема, иллюстрирующая три уровня когнитивных способностей: Идея состоит в том, что «интеллект», производимый современными технологиями …

7
Можно ли научить ИИ составить план истории?
Я знаю, что одним из недавних увлечений сейчас является обучение нейронной сети для генерации сценариев и новых эпизодов, например, «Друзья» или «Симпсоны», и это прекрасно: это интересно и может быть необходимым первым шагом к созданию программ, которые действительно могут генерировать толковые / понятные истории. В этом контексте можно ли специально …

2
Должны ли глубокие остаточные сети рассматриваться как совокупность сетей?
Речь идет об архитектуре Deep Residual Networks ( ResNets ). Модель, занявшая 1-е место на «Large Scale Visual Recognition Challenge 2015» (ILSVRC2015) по всем пяти основным трекам: Классификация ImageNet: «Сверхглубокие» (цитата Янн) 152-слойные сетки Обнаружение ImageNet: 16% лучше, чем второе Локализация ImageNet: 27% лучше, чем 2-й COCO Detection: 11% лучше, …

4
Можно ли использовать BERT для создания предложений?
Я новый ученик в НЛП. Я заинтересован в задаче генерации предложений. Насколько мне известно, одним из современных методов является CharRNN , который использует RNN для генерации последовательности слов. Тем не менее, BERT вышел несколько недель назад и является очень мощным. Поэтому мне интересно, можно ли эту задачу также выполнить с …

1
Для чего используются все виды нейронных сетей?
Я нашел следующую шпаргалку нейронной сети ( шпаргалки для ИИ, нейронных сетей, машинного обучения, глубокого обучения и больших данных ). Для чего используются все эти разные виды нейронных сетей? Например, какие нейронные сети можно использовать для регрессии или классификации, которые можно использовать для генерации последовательности и т. Д.? Мне просто …

2
Какой слой занимает больше времени в обучении CNN? Сверточные слои против слоев FC
В Convolutional Neural Network какой слой потребляет максимальное время на тренировке? Сверточные слои или Полностью связанные слои? Мы можем взять архитектуру AlexNet, чтобы понять это. Я хочу видеть временную остановку тренировочного процесса. Мне нужно сравнение относительного времени, чтобы мы могли использовать любую постоянную конфигурацию графического процессора.

5
Почему глубоких нейронных сетей и глубокого обучения недостаточно для достижения общего интеллекта?
Все, что связано с Deep Learning (DL) и глубокими (er) сетями, кажется «успешным», по крайней мере, очень быстрым, развивая веру в то, что AGI достижим. Это популярное воображение. DL - это потрясающий инструмент для решения многих проблем, включая создание AGI. Однако этого недостаточно. Инструмент является необходимым компонентом, но часто недостаточным. …

1
Могут ли слои глубоких нейронных сетей рассматриваться как сети Хопфилда?
Сети Хопфилда могут хранить вектор и извлекать его, начиная с шумной версии. Они делают это, устанавливая веса, чтобы минимизировать энергетическую функцию, когда все нейроны установлены равными векторным значениям, и извлекать вектор, используя его зашумленную версию в качестве входных данных и позволяя сети довести до минимума энергии. Оставляя в стороне проблемы, …

1
Потеря резко возрастает, когда я теряю скорость обучения с помощью оптимизатора Адама в PyTorch
Я тренирую auto-encoderсеть с Adamоптимизатором (с amsgrad=True) и MSE lossдля одноканальной задачи разделения аудиоисточников. Всякий раз, когда я уменьшаю скорость обучения на коэффициент, потери в сети резко скачут, а затем уменьшаются до следующего снижения скорости обучения. Я использую Pytorch для реализации сети и обучения. Following are my experimental setups: Setup-1: …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.