Вопросы с тегом «kernel-trick»

Методы ядра используются в машинном обучении для обобщения линейных методов в нелинейных ситуациях, особенно в SVM, PCA и GP. Не путать с [сглаживанием ядра], для оценки плотности ядра (KDE) и регрессии ядра.

1
Взаимосвязь между количеством векторов поддержки и количеством функций
Я запустил SVM для данного набора данных и сделал следующее наблюдение: если я изменю количество функций для построения классификатора, число результирующих векторов поддержки также будет изменено. Я хотел бы знать, как объяснить такой сценарий.

1
Как выбрать ядро ​​для ядра PCA?
Какими способами можно выбрать, какое ядро ​​приведет к хорошему разделению данных при окончательном выводе данных ядром PCA (анализ основных компонентов), и как оптимизировать параметры ядра? Условия Лаймана, если это возможно, будут высоко оценены, и ссылки на статьи, которые объясняют такие методы, также были бы хорошими.

1
Kernelised k Ближайший сосед
Я новичок в ядрах и попал в ловушку при попытке ядра KNN. прелиминарии Я использую ядро ​​с полиномами: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типичный евклидов kNN использует следующую метрику расстояния: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Пусть отображает в некоторое многомерное пространство признаков. Тогда квадрат …

5
Как эффективно вычислить ядро ​​Гаусса в numpy [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 3 года назад . У меня есть пустой массив с m столбцами и n строками, столбцы с размерами и точками данных строк. Теперь …

1
Метод Нистроема для аппроксимации ядра
Я читал о методе Nyström для апроксимации ядра низкого ранга. Этот метод реализован в scikit-learn [1] как метод проецирования выборок данных в низкосортное приближение отображения характеристик ядра. Насколько мне известно, данный учебный набор и функция ядра, она генерирует низкокачественного приближение ядро матрицы , применяя SVD к и . n × …

2
Теорема Мерсера работает наоборот?
У коллеги есть функция и для наших целей это черный ящик. Функция измеряет сходство s ( a , b ) двух объектов.ssss(a,b)s(a,b)s(a,b) Мы точно знаем, что обладает следующими свойствами:sss Значения сходства представляют собой действительные числа от 0 до 1 включительно. Только объекты, которые являются идентичными, имеют баллы 1. Таким образом, …

1
Чувствительна ли машина опорных векторов к корреляции между атрибутами?
Я хотел бы обучить SVM для классификации дел (ИСТИНА / ЛОЖЬ) на основе 20 атрибутов. Я знаю, что некоторые из этих атрибутов тесно взаимосвязаны. Поэтому мой вопрос: чувствителен ли SVM к корреляции или избыточности между функциями? Любая ссылка?


1
Как создать простой персептрон?
Задачи классификации с нелинейными границами не могут быть решены простым персептроном . Следующий код R предназначен для иллюстративных целей и основан на этом примере в Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) …

1
Какие методы существуют для настройки гиперпараметров ядра графов SVM?
У меня есть некоторые данные, которые существуют на графе . Вершины принадлежат одному из двух классов y i ∈ { - 1 , 1 } , и я заинтересован в обучении SVM различать эти два класса. Одним подходящее ядро для этого является в диффузии ядро , К = ехру ( …

1
Помимо ядер Фишера
Какое-то время казалось, что ядра Фишера могут стать популярными, поскольку они, похоже, являются способом построения ядер из вероятностных моделей. Однако я редко видел, чтобы они использовались на практике, и у меня есть все основания полагать, что они не очень хорошо работают. Они полагаются на вычисление информации Фишера, цитируя Википедию: информация …

2
Какой метод ядра дает наилучшие выходы вероятности?
Недавно я использовал масштабирование SVM-выходов Платта для оценки вероятностей событий по умолчанию. Похоже, более прямыми альтернативами являются «Логистическая регрессия ядра» (KLR) и связанная с ними «Машина вектора импорта». Кто-нибудь может сказать, какой метод ядра, дающий вероятностные результаты, является в настоящее время современным? Существует ли R-реализация KLR? Спасибо большое за помощь!

1
Как SVM = соответствие шаблона?
Я прочитал о SVM и узнал, что они решают проблему оптимизации, и идея максимальной маржи была очень разумной. Теперь, используя ядра, они могут найти даже нелинейные границы разделения, что было здорово. До сих пор я действительно не представляю, как SVM (специальная машина ядра) и машины ядра связаны с нейронными сетями? …

1
Каковы ограничения методов ядра и когда использовать методы ядра?
Методы ядра очень эффективны во многих контролируемых задачах классификации. Итак, каковы ограничения методов ядра и когда использовать методы ядра? Каковы успехи методов ядра, особенно в эпоху крупномасштабных данных? В чем разница между методами ядра и обучением нескольких экземпляров? Если данные есть 500x10000, 500это количество отсчетов и 10000размерность каждого признака, то …

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.