Вопросы с тегом «k-nearest-neighbour»

Классификаторы k-Nearest-Neighbor Эти классификаторы основаны на памяти и не требуют подгонки модели. Для заданной точки запроса x0 мы находим k обучающих точек x (r), r = 1, ..., k, ближайших к расстоянию до x0, и затем классифицируем их большинством голосов среди k соседей.

1
Kernelised k Ближайший сосед
Я новичок в ядрах и попал в ловушку при попытке ядра KNN. прелиминарии Я использую ядро ​​с полиномами: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ваш типичный евклидов kNN использует следующую метрику расстояния: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Пусть отображает в некоторое многомерное пространство признаков. Тогда квадрат …

3
Пояснение формулы для медианы, ближайшей к началу N образцов из единичного шара
В Элементах Статистического Изучения введена проблема, чтобы выделить проблемы с k-nn в многомерных пространствах. Есть точек данных, которые равномерно распределены в мерном единичном шаре.NNNpпp Среднее расстояние от начала координат до ближайшей точки данных определяется выражением: d(p,N)=(1−(12)1N)1pd(п,N)знак равно(1-(12)1N)1пd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Когда , формула разбивается на половину радиуса шара, и я могу …


1
Плюсы дистанции Джеффриса Матуситы
Согласно какой-то статье, которую я читаю, расстояние Джеффриса и Матуситы обычно используется. Но я не мог найти много информации об этом, кроме формулы ниже JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Это похоже на евклидово расстояние, за исключением квадратного корня E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} JM расстояние считается более надежным, чем евклидово расстояние с …

4
Проклятие размерности: классификатор кНН
Я читаю книгу Кевина Мерфи: Машинное обучение - вероятностная перспектива. В первой главе автор объясняет проклятие размерности, и есть часть, которую я не понимаю. В качестве примера автор заявляет: Рассмотрим входы, равномерно распределенные по D-мерному единичному кубу. Предположим, что мы оцениваем плотность меток классов, выращивая гиперкуб вокруг x, пока он …

1
VC-размерность k-ближайшего соседа
Каково VC-измерение алгоритма k-ближайшего соседа, если k равно количеству используемых тренировочных точек? Контекст: этот вопрос был задан в ходе курса, который я взял, и ответа было 0. Я, однако, не понимаю, почему это так. Моя интуиция заключается в том, что VC-Dimension должно быть 1, потому что должна быть возможность выбрать …

1
Теорема об отсутствии свободного обеда и согласованность K-NN
В вычислительном обучении теорема НФЛ утверждает, что универсального ученика не существует. Для каждого алгоритма обучения существует распределение, которое приводит к тому, что учащийся выдает гипотезу с большой ошибкой и высокой вероятностью (хотя гипотеза с низкой ошибкой существует). Вывод заключается в том, что для обучения класс гипотезы или ее распределение должны …

2
K-ближайший сосед с непрерывными и двоичными переменными
У меня есть набор данных с колонками a b c(3 атрибута). aявляется числовым и непрерывным в то время как bи cявляются категориальными каждый с двумя уровнями. Я использую метод K-Nearest Neighbours для классификации aи bдалее c. Таким образом, чтобы иметь возможность измерять расстояния, я преобразовываю свой набор данных, удаляя bи …

4
Почему KNN не «на основе модели»?
Глава 2.4 ESL, по- видимому, классифицирует линейную регрессию как «основанную на модели», потому что она предполагает , тогда как для k-ближайших соседей подобная аппроксимация не указана. Но разве оба метода не делают предположений о ?f ( x )е( х ) ≈ х ⋅ βе(Икс)≈Икс⋅βf(x) \approx x\cdot\betaе( х )е(Икс)f(x) Позже в …

4
Учитывая цепочку 10D MCMC, как я могу определить ее апостериорные моды в R?
Вопрос: С 10-мерной цепочкой MCMC, скажем, я готов передать вам матрицу розыгрышей: 100 000 итераций (строк) по 10 параметрам (столбцам), как лучше всего определить апостериорные моды? Я особенно обеспокоен несколькими режимами. Фон:Я считаю себя статистически подкованным статистиком, но когда коллега задал мне этот вопрос, мне стало стыдно, что я не …

1
Какой тип нормализации данных следует использовать с KNN?
Я знаю, что существует более двух типов нормализации. Например, 1- Преобразование данных с использованием z-показателя или t-показателя. Это обычно называется стандартизацией. 2- Изменение масштаба данных для получения значений от 0 до 1. Теперь вопрос, нужно ли мне нормализовать Какой тип нормализации данных следует использовать с KNN? и почему?
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.