Вопросы с тегом «pac-learning»

20
Две культуры: статистика против машинного обучения?
В прошлом году я прочитал запись в блоге Брендана О'Коннора под названием «Статистика против машинного обучения, сражайтесь!» что обсудили некоторые различия между этими двумя областями. Эндрю Гельман положительно отреагировал на это : Саймон Бломберг: Из пакета R's fortunes: перефразирующе: «машинное обучение - это статистика без всякой проверки моделей и предположений». …

3
Что подразумевается под «слабым учеником»?
Может кто-нибудь сказать мне, что подразумевается под фразой «слабый ученик»? Это должна быть слабая гипотеза? Я запутался в отношениях между слабым учеником и слабым классификатором. Оба одинаковы или есть какая-то разница? В алгоритме adaboost T=10. Что подразумевается под этим? Почему мы выбираем T=10?

4
Введение в машинное обучение для математиков
В каком-то смысле это мой перекрестный пост от math.stackexchange , и у меня есть ощущение, что этот сайт может обеспечить широкую аудиторию. Я ищу математическое введение в машинное обучение. В частности, много литературы, которая может быть найдена, является относительно неточной, и многие страницы тратятся без какого-либо содержания. Однако, исходя из …

6
Какова «фундаментальная» идея машинного обучения для оценки параметров?
«Фундаментальная» идея статистики для оценки параметров - это максимальная вероятность . Мне интересно, какова соответствующая идея в машинном обучении. Qn 1. Было бы справедливо сказать, что «фундаментальная» идея в машинном обучении для оценки параметров: «Функции потери» [Примечание: у меня сложилось впечатление, что алгоритмы машинного обучения часто оптимизируют функцию потерь, и, …

1
Почему мы предполагаем, что ошибка обычно распространяется?
Интересно, почему мы используем предположение Гаусса при моделировании ошибки. В курсе ML Стэнфорда профессор Нг описывает его в основном двумя способами: Это математически удобно. (Это связано с подходом наименьших квадратов и легко решается псевдообратным) Из-за центральной предельной теоремы мы можем предположить, что на процесс влияют многие основные факты, и сумма …

2
Какие есть альтернативы VC-измерению для измерения сложности нейронных сетей?
Я сталкивался с некоторыми основными способами измерения сложности нейронных сетей: Наивный и неформальный: подсчитайте количество нейронов, скрытых нейронов, слоев или скрытых слоев VC-измерение (Эдуардо Д. Сонтаг [1998] "VC-измерение нейронных сетей" [ pdf ].) Конечно-гранулированная и асимптотическая вычислительная сложность измеряется эквивалентностью TC0dTCd0TC^0_d . Есть ли другие альтернативы? Это предпочтительно: Если показатель …

2
Что означает теория обучения PAC?
Я новичок в машинном обучении. Я изучаю курс машинного обучения (Стэнфордский университет), и я не понял, что подразумевается под этой теорией и в чем ее польза. Мне интересно, может ли кто-нибудь описать эту теорию для меня. Эта теория основана на этом уравнении.

1
Комплексный анализ, функциональный анализ для более глубокого понимания машинного обучения
Я хочу углубиться в машинное обучение (теория и применение в финансах). Я хочу спросить, насколько важны комплексный анализ и функциональный анализ в качестве основы для машинного обучения? Нужно ли изучать эти предметы или мне нужно сосредоточиться на другой теме (если да, то на какой?)

2
Рассчитать кривую ROC для данных
Итак, у меня есть 16 испытаний, в которых я пытаюсь идентифицировать человека по биометрической характеристике, используя расстояние Хэмминга. Мой порог установлен на 3,5. Мои данные ниже, и только пробная версия 1 является истинным положительным результатом: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.