Вопросы с тегом «convolution»

Свертка - это функциональнозначная операция над двумя функциями. f и g: f(τ)g(tτ)dτ, Часто используется для получения плотности суммы независимых случайных величин. Этот тег также следует использовать для обратной операции деконволюции. НЕ используйте этот тег для сверточных нейронных сетей.

6
Что означает свертка 1x1 в нейронной сети?
В настоящее время я занимаюсь учебником по углубленному изучению Udacity. В уроке 3 они говорят о свертке 1x1. Эта свертка 1x1 используется в начальном модуле Google. У меня проблемы с пониманием, что такое свертка 1x1. Я также видел этот пост от Янн Лекун. Может ли кто-нибудь любезно объяснить это мне?

6
Важность нормализации местного ответа в CNN
Я обнаружил, что Imagenet и другие крупные CNN используют слои нормализации локального отклика. Однако я не могу найти столько информации о них. Насколько они важны и когда их следует использовать? С http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : «Уровень нормализации локального отклика выполняет своего рода« боковое торможение »путем нормализации по локальным входным областям. В режиме …

4
Что такое трансляционная инвариантность в компьютерном зрении и сверточной нейронной сети?
У меня нет компьютерного зрения, но когда я читаю некоторые статьи и статьи, связанные с обработкой изображений и сверточными нейронными сетями, я постоянно сталкиваюсь с термином translation invarianceили translation invariant. Или я много читал, что обеспечивает операция свертки translation invariance? !! что это значит? Я сам всегда переводил это себе, …

10
Почему сумма двух случайных величин является сверткой?
Долгое время я не понимал, почему «сумма» двух случайных величин является их сверткой , тогда как сумма функции плотности смеси суммы и равнаf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x)n; арифметическая сумма, а не их свертка. Точная фраза «сумма двух случайных величин» появляется в Google 146 000 раз и имеет эллиптическую форму следующим образом. Если считать, что …

2
Сверточные нейронные сети: разве центральные нейроны не представлены чрезмерно в выходных данных?
[Этот вопрос также был задан при переполнении стека] Короче вопрос Я изучаю сверточные нейронные сети и считаю, что эти сети не обрабатывают каждый входной нейрон (пиксель / параметр) одинаково. Представьте, что у нас есть глубокая сеть (много слоев), которая применяет свертку к некоторому входному изображению. Нейроны в «середине» изображения имеют …

1
Могут ли степени свободы быть нецелым числом?
Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
«Оценка плотности ядра» - это свертка чего?
Я пытаюсь получить лучшее понимание оценки плотности ядра. Использование определения из Википедии: https://en.wikipedia.org/wiki/Kernel_density_esvaluation#Definition ечас^( х ) = 1NΣNя = 1Кчас( х - хя)= 1н чΣNя = 1К( х - хячас)ечас^(Икс)знак равно1NΣязнак равно1NКчас(Икс-Икся)знак равно1NчасΣязнак равно1NК(Икс-Иксячас) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Давайте возьмем в качестве …

6
Сверточные слои: дополнять или не дополнять?
Архитектура AlexNet использует заполнение нулями, как показано на рисунке: Однако в статье нет объяснения, почему вводится это заполнение. Курс Standford CS 231n учит, что мы используем отступы для сохранения пространственного размера: Мне интересно, это единственная причина, по которой нам нужно набивать? Я имею в виду, если мне не нужно сохранять …

2
Динамический системный взгляд на Центральную предельную теорему?
(Первоначально опубликовано на MSE.) Я видел много эвристических обсуждений классической центральной предельной теоремы, говорящей о нормальном распределении (или любом из устойчивых распределений) как об «аттракторе» в пространстве плотностей вероятностей. Например, рассмотрим эти предложения в верхней части Википедии лечения : В более общем использовании центральная предельная теорема - это любая из …

3
Что делает шаг свертки в сверточной нейронной сети?
Я изучаю сверточные нейронные сети (CNN) из-за их применения в компьютерном зрении. Я уже знаком со стандартными нейронными сетями feed-foward, поэтому я надеюсь, что некоторые люди здесь могут помочь мне сделать дополнительный шаг в понимании CNN. Вот что я думаю о CNN: В традиционных NN с прямой связью у нас …

2
Есть ли математические причины для свертки в нейронных сетях сверх целесообразности?
В сверточных нейронных сетях (CNN) матрица весов на каждом шаге переворачивает свои строки и столбцы для получения матрицы ядра, прежде чем приступить к свертке. Это объясняется в серии видео Хьюго Ларошелле здесь : Вычисление скрытых карт будет соответствовать выполнению дискретной свертки с каналом из предыдущего уровня с использованием матрицы ядра …

2
Распределение свертки квадратов нормальных и хи-квадрат переменных?
Следующая проблема возникла недавно при анализе данных. Если случайная величина X следует нормальному распределению, а Y следует распределению χ2nχn2\chi^2_n (с n dof), как распределяется Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 ? До сих пор я придумал ПРВ Y2Y2Y^2 : ψ2n(x)====∂F(x−−√)∂x(∫x√0tn/2−1⋅e−t/22n/2Γ(n/2)dt)′x12n/2Γ(n/2)⋅(x−−√)n/2−1⋅e−x√/2⋅(x−−√)′x12n/2−1Γ(n/2)⋅xn/4−1⋅e−x√/2ψn2(x)=∂F(x)∂x=(∫0xtn/2−1⋅e−t/22n/2Γ(n/2)dt)x′=12n/2Γ(n/2)⋅(x)n/2−1⋅e−x/2⋅(x)x′=12n/2−1Γ(n/2)⋅xn/4−1⋅e−x/2\begin{eqnarray} \psi^2_n(x) &=& \frac{\partial F(\sqrt{x})}{\partial x} \\ &=& \left( \int_0^{\sqrt{x}} \frac{t^{n/2-1}\cdot e^{-t/2}}{2^{n/2}\Gamma(n/2)} …

3
Как именно сверточные нейронные сети используют свертку вместо умножения матриц?
Я читал Книгу Йошуа Бенжио по глубокому обучению, и на странице 224 написано: Сверточные сети - это просто нейронные сети, которые используют свертку вместо общего умножения матриц, по крайней мере, на одном из их уровней. однако я не был уверен на 100% в том, как «заменить умножение матриц сверткой» в …

4
Сумма независимых логнормальных случайных величин оказывается логнормальной?
Я пытаюсь понять, почему сумма двух (или более) логнормальных случайных величин приближается к логнормальному распределению при увеличении количества наблюдений. Я посмотрел онлайн и не нашел никаких результатов, касающихся этого. Ясно, что если и Y являются независимыми логнормальными переменными, то по свойствам экспонент и гауссовских случайных величин X \ times Y …

2
Разве несколько фильтров в сверточном слое не будут учить один и тот же параметр во время тренировки?
Основываясь на том, что я узнал, мы используем несколько фильтров в Conv Layer CNN для изучения различных детекторов функций. Но так как эти фильтры применяются одинаково (то есть скользят и умножаются на области ввода), разве они не изучат одни и те же параметры во время обучения? Следовательно, использование нескольких фильтров …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.