Вопросы с тегом «statistical-learning»

5
Как работает машина опорных векторов (SVM)?
Как работает машина опорных векторов (SVM) и чем она отличается от других линейных классификаторов, таких как линейный персептрон , линейный дискриминантный анализ или логистическая регрессия ? * (* Я имею в виду основные мотивы для алгоритма, стратегии оптимизации, возможности обобщения и сложность во время выполнения )

2
Почему регрессия хребта называется «хребет», зачем она нужна и что происходит, когда уходит в бесконечность?
Оценка коэффициента регрессии хребта - это значения, которые минимизируютβ^Rβ^R\hat{\beta}^R RSS+λ∑j=1pβ2j.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. Мои вопросы: Если , то мы видим, что приведенное выше выражение сводится к обычному RSS. Что делать, если ? Я не понимаю из учебника объяснение поведения коэффициентов.λ=0λ=0\lambda = 0λ→∞λ→∞\lambda \to \infty Чтобы помочь понять концепцию, лежащую …

3
Контролируемая кластеризация или классификация?
Второй вопрос заключается в том, что я обнаружил, что где-то в сети обсуждалась «контролируемая кластеризация», насколько я знаю, кластеризация не контролируется, так что именно означает «контролируемая кластеризация»? В чем разница с «классификацией»? Об этом много ссылок: http://www.cs.uh.edu/docs/cosc/technical-reports/2005/05_10.pdf http://books.nips.cc/papers/files/nips23/NIPS2010_0427.pdf http://engr.case.edu/ray_soumya/mlrg/supervised_clustering_finley_joachims_icml05.pdf http://www.public.asu.edu/~kvanlehn/Stringent/PDF/05CICL_UP_DB_PWJ_KVL.pdf http://www.machinelearning.org/proceedings/icml2007/papers/366.pdf http://www.cs.cornell.edu/~tomf/publications/supervised_kmeans-08.pdf http://jmlr.csail.mit.edu/papers/volume6/daume05a/daume05a.pdf так далее ...

3
Что такое смешивание данных?
Этот термин часто встречается в темах, связанных с методом . Является ли смешивание конкретным методом в интеллектуальном анализе данных и статистическом обучении? Я не могу получить соответствующий результат от Google. Кажется, смешивание смешивает результаты многих моделей и приводит к лучшему результату. Есть ли какой-нибудь ресурс, который поможет мне узнать больше …

1
Почему мы должны обсуждать поведение конвергенции разных оценок в разных топологиях?
В первой главе книги « Алгебраическая геометрия и теория статистического обучения», в которой говорится о сходимости оценок в разных функциональных пространствах, упоминается, что байесовская оценка соответствует топологии распределения Шварца, тогда как оценка максимального правдоподобия соответствует топологии sup-norm. (на странице 7): Например, sup-норма, LpLpL^p -норма, слабая топология гильбертова пространства L2L2L^2 , …

2
Как вектор переменных может представлять гиперплоскость?
Я читаю Элементы статистического обучения и на странице 12 (раздел 2.3) линейная модель обозначается как: Yˆ= ХTβˆY^=XTβ^\widehat{Y} = X^{T} \widehat{\beta} ... где - транспонирование вектора-столбца предикторов / независимых переменных / входных данных. ( В нем говорится , ранее «все векторы предполагаются векторы - столбцов» , так что это не сделаешь …

1
Логистическая регрессия для данных из распределений Пуассона
Из некоторых заметок машинного обучения, говорящих о некоторых дискриминационных методах классификации, в частности о логистической регрессии, где у - метка класса (0 или 1), а х - данные, говорится, что: если x|y=0∼Poisson(λ0)x|y=0∼Poisson(λ0)x|y = 0 \sim \mathrm{Poisson}(λ_0) и x|y=1∼Poisson(λ1)x|y=1∼Poisson(λ1)x|y = 1 \sim \mathrm{Poisson}(λ_1) , то p(y|x)p(y|x)p(y|x) будет логистическим. Почему это правда?

1
Распространение 2-классовых моделей на мультиклассовые задачи
В этой статье об Adaboost приведены некоторые предложения и код (стр. 17) для расширения моделей с 2 ​​классами до задач класса K. Я хотел бы обобщить этот код так, чтобы я мог легко подключить различные 2-классовые модели и сравнить результаты. Поскольку большинство моделей классификации имеют интерфейс формулы и predictметод, некоторые …

1
Разъяснение в информационной геометрии
Этот вопрос связан с работой Амари « Дифференциальная геометрия изогнутых экспоненциальных семейств-искривлений и потеря информации ». Текст выглядит следующим образом. Пусть - n- мерное многообразие распределений вероятностей с системой координат θ = ( θ 1 , … , θ n ) , где предполагается , что p θ ( x …

1
Статистическая теория обучения VS вычислительная теория обучения?
Каковы отношения и различия между статистической теорией обучения и вычислительной теорией обучения ? Они о той же теме? Решить те же проблемы и использовать те же методы? Например, первый говорит, что это теория предсказания (регрессия, классификация, ...).
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.