Вопросы с тегом «k-nearest-neighbour»

Классификаторы k-Nearest-Neighbor Эти классификаторы основаны на памяти и не требуют подгонки модели. Для заданной точки запроса x0 мы находим k обучающих точек x (r), r = 1, ..., k, ближайших к расстоянию до x0, и затем классифицируем их большинством голосов среди k соседей.


2
Как построить границу решения классификатора k-ближайшего соседа из элементов статистического обучения?
Я хочу создать сюжет, описанный в книге ElemStatLearn «Элементы статистического обучения: сбор данных, вывод и прогноз. Второе издание» Тревора Хасти, Роберта Тибширани и Джерома Фридмана. Сюжет: Мне интересно, как я могу получить этот точный график R, особенно обратите внимание на графику сетки и расчеты, чтобы показать границу.

1
Вычисление повторяемости эффектов по модели Лмера
Я только что наткнулся на эту статью , в которой описывается, как вычислить повторяемость (или надежность, или внутриклассовую корреляцию) измерения с помощью моделирования смешанных эффектов. Код R будет: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

4
Зачем кому-то использовать KNN для регрессии?
Из того, что я понимаю, мы можем построить только регрессионную функцию, которая находится в интервале данных обучения. Например (необходима только одна из панелей): Как бы я мог предсказать будущее, используя регрессор KNN? Опять же, это, кажется, только приближает функцию, которая находится в пределах интервала обучающих данных. Мой вопрос: каковы преимущества …

3
Объединение моделей машинного обучения
Я немного новичок в изучении данных / машинного обучения / и т.д. и читали о нескольких способах объединения нескольких моделей и прогонов одной и той же модели для улучшения прогнозов. У меня сложилось впечатление, что после прочтения пары статей (которые часто интересны и хороши в теории и греческом языке, но …

2
Когда сегодня важен «Ближайший сосед»?
В 1999 году Beyer et al. спросил, когда смысл "Ближайший сосед"? Существуют ли лучшие способы анализа и визуализации влияния плоскостности расстояний на поиск NN с 1999 года? Предоставляет ли [данный] набор данных значимые ответы на проблему 1-NN? Проблема 10-НН? Проблема 100-НН? Как бы вы, эксперты, подошли к этому вопросу сегодня? …

1
k-NN вычислительная сложность
Какова временная сложность алгоритма k -NN с наивным поисковым подходом (без дерева kd или подобных)? Меня интересует его временная сложность, учитывая также гиперпараметр k . Я нашел противоречивые ответы: O (nd + kn), где n - количество обучающих наборов, а d - размерность каждой выборки. [1] O (ndk), где снова …


3
Выбор оптимального К для КНН
Я выполнил 5-кратное резюме, чтобы выбрать оптимальный K для KNN. И кажется, что чем больше К, тем меньше ошибка ... Извините, у меня не было легенды, но разные цвета представляют разные испытания. Всего их 5, и кажется, что между ними мало различий. Кажется, что ошибка всегда уменьшается, когда K становится …

2
Зачем вам нужно масштабировать данные в KNN
Может кто-нибудь объяснить мне, почему вам нужно нормализовать данные при использовании K ближайших соседей. Я пытался найти это, но я все еще не могу понять это. Я нашел следующую ссылку: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Но в этом объяснении я не понимаю, почему больший диапазон в одной из функций влияет на прогнозы.

1
Влияет ли проклятие размерности на некоторые модели больше, чем на другие?
Места, которые я читал о проклятии размерности, объясняют его в первую очередь в связи с kNN и линейными моделями в целом. Я регулярно вижу топ-рейтингов в Kaggle, использующих тысячи функций в наборе данных, который вряд ли имеет 100 тыс. Точек данных. Они в основном используют Boosted деревья и NN, среди …

5
КНН импутации R пакетов
Я ищу пакет вменения KNN. Я искал пакет вменения ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ), но по какой-то причине вменяемая функция KNN (даже если следовать примеру из описания) только кажется вменять нулевые значения (согласно ниже). Я оглядывался по сторонам, но пока не могу что-то найти, и поэтому задавался вопросом, есть ли у кого-нибудь …

4
Работа со связями, весами и голосованием в кНН
Я программирую алгоритм kNN и хотел бы знать следующее: Тай-брейки: Что произойдет, если в голосовании большинства нет явного победителя? Например, все k ближайших соседей принадлежат к разным классам, или для k = 4 есть 2 соседа из класса A и 2 соседа из класса B? Что происходит, если невозможно точно …

4
Какова цель нормализации строк
Я понимаю причину нормализации столбцов, поскольку она приводит к одинаковому взвешиванию объектов, даже если они не измеряются в одном и том же масштабе - однако часто в литературе ближайшего соседа столбцы и строки нормализуются. Что такое нормализация строк для / почему нормализация строк? В частности, как результат нормализации строк влияет …

3
Адаптивные оценки плотности ядра?
Кто-нибудь может сообщить о своем опыте с адаптивной оценкой плотности ядра? (Существует много синонимов: адаптивный | переменная | переменная-ширина, KDE | гистограмма | интерполятор ...) Переменная оценка плотности ядра говорит: «мы меняем ширину ядра в разных областях выборочного пространства. Есть два метода ...» на самом деле, больше: соседи в пределах …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.