Вопросы с тегом «svm»

Машина опорных векторов относится к «набору связанных методов обучения под наблюдением, которые анализируют данные и распознают шаблоны, используемые для классификации и регрессионного анализа».

1
Могут ли степени свободы быть нецелым числом?
Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
Разница ядер в SVM?
Может кто-нибудь подскажите пожалуйста разницу между ядрами в SVM: линейный многочлен Гауссовский (RBF) сигмоид Потому что, как мы знаем, ядро ​​используется для отображения нашего входного пространства в пространство пространственных объектов высокой размерности. И в этом пространстве признаков мы находим линейно отделимую границу .. Когда они используются (при каких условиях) и …

4
Как определить оптимальный порог для классификатора и сгенерировать ROC-кривую?
Допустим, у нас есть классификатор SVM, как мы генерируем кривую ROC? (Как теоретически) (потому что мы генерируем TPR и FPR с каждым порогом). И как определить оптимальный порог для этого классификатора SVM?

1
Один против всех и Один против одного в свм?
В чем разница между классификатором SVM «один против всех» и «один против одного»? Означает ли «один против всех» один классификатор, чтобы классифицировать все типы / категории нового изображения, и означает, что каждый тип / категория нового изображения классифицируется с помощью другого классификатора (каждая категория обрабатывается специальным классификатором)? Например, если новое …

2
Опорные векторные машины и регрессия
Уже было отличное обсуждение того, как машины опорных векторов справляются с классификацией, но я очень озадачен тем, как машины опорных векторов обобщаются в регрессию. Кто-нибудь хочет меня просветить?

10
Почему бы просто не выбросить нейронные сети и глубокое обучение? [закрыто]
Закрыто . Этот вопрос основан на мнении . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы ответить на него фактами и цитатами, отредактировав этот пост . Закрыто 2 года назад . Фундаментальная проблема с глубоким обучением и нейронными сетями в целом. Решения, которые соответствуют данным …

2
Как поддержка векторной регрессии работает интуитивно?
Все примеры SVM связаны с классификацией. Я не понимаю, как SVM для регрессии (опорный вектор-регрессор) можно использовать в регрессии. Насколько я понимаю, SVM максимизирует разницу между двумя классами, чтобы найти оптимальную гиперплоскость. Как это могло бы работать в проблеме регрессии?
25 regression  svm 

3
Карта возможностей для ядра Гаусса
В SVM ядро ​​Гаусса определяется как: где . Я не знаю явного уравнения \ phi . Я хочу это знать.K(x,y)=exp(−∥x−y∥222σ2)=ϕ(x)Tϕ(y)K(x,y)=exp⁡(−‖x−y‖222σ2)=ϕ(x)Tϕ(y)K(x,y)=\exp\left({-\frac{\|x-y\|_2^2}{2\sigma^2}}\right)=\phi(x)^T\phi(y)x,y∈Rnx,y∈Rnx, y\in \mathbb{R^n}ϕϕ\phi Я также хочу знать ∑iciϕ(xi)=ϕ(∑icixi)∑iciϕ(xi)=ϕ(∑icixi)\sum_ic_i\phi(x_i)=\phi \left(\sum_ic_ix_i \right) , где ci∈Rci∈Rc_i\in \mathbb R . Теперь я думаю, что это не равно, потому что использование ядра обрабатывает ситуацию, когда линейный …

4
Почему алгоритмы оптимизации определяются с точки зрения других задач оптимизации?
Я занимаюсь некоторыми методами оптимизации машинного обучения, но удивляюсь, обнаружив, что большое количество алгоритмов оптимизации определяется с точки зрения других задач оптимизации. Я проиллюстрирую некоторые примеры в следующем. Например, https://arxiv.org/pdf/1511.05133v1.pdf. Все выглядит красиво и хорошо , но тогда есть это в обновление .... так что алгоритм , который решает для …

2
Какова функция потерь жесткого запаса SVM?
Люди говорят, что мягкий край SVM использует функцию потери шарнира: . Однако фактическая целевая функция, которую мягкое поле SVM пытается минимизировать, равна \ frac {1} {2} \ | w \ | ^ 2 + C \ sum_i \ max (0,1-y_i (w ^ \ intercal x_i + b) ) Некоторые авторы …

3
Регрессия опорных векторов для многомерного прогнозирования временных рядов
Кто-нибудь пытался прогнозировать временные ряды, используя регрессию опорных векторов? Я понимаю машины опорных векторов и частично понимаю регрессию опорных векторов, но не понимаю, как их можно использовать для моделирования временных рядов, особенно многомерных временных рядов. Я пытался прочитать несколько статей, но они слишком высокого уровня. Может ли кто-нибудь объяснить в …

3
Возможно ли градиентное спуск для SVM с ядром (если так, почему люди используют квадратичное программирование)?
Почему люди используют методы квадратичного программирования (например, SMO) при работе с SVM с ядром? Что не так с градиентным спуском? Это невозможно использовать с ядрами или просто слишком медленно (и почему?). Здесь немного больше контекста: пытаясь немного лучше понять SVM, я использовал Gradient Descent для обучения линейного классификатора SVM, используя …

4
Как узнать, являются ли данные линейно разделимыми?
Данные имеют много функций (например, 100), а количество экземпляров равно 100 000. Данные редки. Я хочу соответствовать данным, используя логистическую регрессию или SVM. Как я узнаю, являются ли объекты линейными или нелинейными, чтобы я мог использовать трюк ядра, если он нелинейный?

1
Предупреждение libsvm «достижение максимального числа итераций» и перекрестная проверка
Я использую libsvm в режиме C-SVC с полиномиальным ядром степени 2, и мне необходимо обучить несколько SVM. Каждый тренировочный набор имеет 10 функций и 5000 векторов. Во время обучения я получаю это предупреждение для большинства SVM, которые я тренирую: WARNING: reaching max number of iterations optimization finished, #iter = 10000000 …

4
Это хорошая идея использовать CNN для классификации 1D сигнала?
Я работаю над классификацией стадии сна. Я читал некоторые исследовательские статьи на эту тему, многие из них использовали SVM или метод ансамбля. Является ли хорошей идеей использовать сверточную нейронную сеть для классификации одномерного сигнала ЭЭГ? Я новичок в такой работе. Простите, если я спрошу что-то не так?

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.