Вопросы с тегом «kernel-trick»

Методы ядра используются в машинном обучении для обобщения линейных методов в нелинейных ситуациях, особенно в SVM, PCA и GP. Не путать с [сглаживанием ядра], для оценки плотности ядра (KDE) и регрессии ядра.

4
Как интуитивно объяснить, что такое ядро?
Многие классификаторы машинного обучения (например, машины опорных векторов) позволяют указывать ядро. Что было бы интуитивно понятным способом объяснить, что такое ядро? Один из аспектов, о котором я думал, - это различие между линейным и нелинейным ядрами. Проще говоря, я мог бы говорить о «линейных решающих функциях» и «нелинейных решающих функциях». …


3
Пример: регрессия LASSO с использованием glmnet для двоичного результата
Я начинаю баловаться с использованием glmnetс LASSO регрессией , где мой результат представляет интерес дихотомический. Я создал небольшой фрейм данных ниже: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Что делает ядро ​​Гаусса таким волшебным для PCA, а также вообще?
Я читал о ядре PCA ( 1 , 2 , 3 ) с гауссовым и полиномиальным ядрами. Как ядро ​​Гаусса, по-видимому, исключительно хорошо разделяет любые нелинейные данные? Пожалуйста, дайте интуитивный анализ, а также, если возможно, математически сложный анализ. Какое свойство ядра Гаусса (с идеальной ), которого нет у других ядер? …

2
Линейное ядро ​​и нелинейное ядро ​​для опорных векторов машины?
При использовании машины опорных векторов есть ли какие-либо рекомендации по выбору линейного ядра или нелинейного ядра, например, RBF? Я когда-то слышал, что нелинейное ядро ​​имеет тенденцию не работать хорошо, когда количество функций велико. Есть ли какие-либо ссылки на этот вопрос?


3
Как доказать, что радиальная базисная функция является ядром?
Как доказать, что радиальная базисная функция k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})ядро? Насколько я понимаю, чтобы доказать это, мы должны доказать одно из следующего: Для любого набора векторов x1,x2,...,xnx1,x2,...,xnx_1, x_2, ..., x_n матрица K(x1,x2,...,xn)K(x1,x2,...,xn)K(x_1, x_2, ..., x_n) = (k(xi,xj))n×n(k(xi,xj))n×n(k(x_i, x_j))_{n \times n} неотрицательно. Отображение ΦΦ\Phi может быть представлен , например , как …
35 svm  kernel-trick 

3
Существует ли какая-либо проблема контролируемого обучения, которую (глубокие) нейронные сети, очевидно, не могут превзойти другими методами?
Я видел людей, которые приложили много усилий к SVM и ядрам, и они выглядят довольно интересно, как начинающие в машинном обучении. Но если мы ожидаем, что почти всегда мы сможем найти превосходящее решение с точки зрения (глубокой) нейронной сети, каков смысл использования других методов в эту эпоху? Вот мое ограничение …

2
Какой диапазон поиска для определения оптимальных параметров С и гамма SVM?
Я использую SVM для классификации и пытаюсь определить оптимальные параметры для линейных и RBF-ядер. Для линейного ядра я использую перекрестный проверенный выбор параметров, чтобы определить C, а для ядра RBF я использую поиск по сетке, чтобы определить C и гамму. У меня есть 20 (числовых) функций и 70 учебных примеров, …

3
Разница между СВМ и персептроном
Меня немного смущает разница между SVM и персептроном. Позвольте мне попытаться суммировать мое понимание здесь, и, пожалуйста, не стесняйтесь исправить, где я ошибаюсь, и заполнить то, что я пропустил. Перцептрон не пытается оптимизировать разделение «расстояния». Пока он находит гиперплоскость, которая разделяет два набора, это хорошо. SVM, с другой стороны, пытается …

4
Разница ядер в SVM?
Может кто-нибудь подскажите пожалуйста разницу между ядрами в SVM: линейный многочлен Гауссовский (RBF) сигмоид Потому что, как мы знаем, ядро ​​используется для отображения нашего входного пространства в пространство пространственных объектов высокой размерности. И в этом пространстве признаков мы находим линейно отделимую границу .. Когда они используются (при каких условиях) и …

3
Карта возможностей для ядра Гаусса
В SVM ядро ​​Гаусса определяется как: где . Я не знаю явного уравнения \ phi . Я хочу это знать.K(x,y)=exp(−∥x−y∥222σ2)=ϕ(x)Tϕ(y)K(x,y)=exp⁡(−‖x−y‖222σ2)=ϕ(x)Tϕ(y)K(x,y)=\exp\left({-\frac{\|x-y\|_2^2}{2\sigma^2}}\right)=\phi(x)^T\phi(y)x,y∈Rnx,y∈Rnx, y\in \mathbb{R^n}ϕϕ\phi Я также хочу знать ∑iciϕ(xi)=ϕ(∑icixi)∑iciϕ(xi)=ϕ(∑icixi)\sum_ic_i\phi(x_i)=\phi \left(\sum_ic_ix_i \right) , где ci∈Rci∈Rc_i\in \mathbb R . Теперь я думаю, что это не равно, потому что использование ядра обрабатывает ситуацию, когда линейный …

3
Возможно ли градиентное спуск для SVM с ядром (если так, почему люди используют квадратичное программирование)?
Почему люди используют методы квадратичного программирования (например, SMO) при работе с SVM с ядром? Что не так с градиентным спуском? Это невозможно использовать с ядрами или просто слишком медленно (и почему?). Здесь немного больше контекста: пытаясь немного лучше понять SVM, я использовал Gradient Descent для обучения линейного классификатора SVM, используя …

1
Какая функция может быть ядром?
В контексте машинного обучения и распознавания образов существует концепция Kernel Trick . Перед лицом проблем, когда меня просят определить, может ли функция быть функцией ядра или нет, что именно нужно сделать? Должен ли я сначала проверить, имеют ли они форму трех или четырех функций ядра, таких как полином, RBF и …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.