Вопросы с тегом «vc-dimension»

1
Какое измерение VC дерева решений?
Каково измерение VC дерева решений с k разбиениями в двух измерениях? Допустим, модель CART и единственные допустимые разбиения параллельны осям. Таким образом, для одного разбиения мы можем заказать 3 точки в треугольнике, а затем для любой маркировки точек мы можем получить идеальный прогноз (то есть: разбитые точки) Но как насчет …

2
Какие есть альтернативы VC-измерению для измерения сложности нейронных сетей?
Я сталкивался с некоторыми основными способами измерения сложности нейронных сетей: Наивный и неформальный: подсчитайте количество нейронов, скрытых нейронов, слоев или скрытых слоев VC-измерение (Эдуардо Д. Сонтаг [1998] "VC-измерение нейронных сетей" [ pdf ].) Конечно-гранулированная и асимптотическая вычислительная сложность измеряется эквивалентностью TC0dTCd0TC^0_d . Есть ли другие альтернативы? Это предпочтительно: Если показатель …

1
Что измерение VC говорит нам о глубоком обучении?
В базовом машинном обучении нас учат следующим «правилам большого пальца»: а) размер ваших данных должен как минимум в 10 раз превышать размер VC вашего набора гипотез. б) нейронная сеть с N соединениями имеет размерность VC приблизительно N. Итак, когда в нейронной сети с глубоким обучением говорят, миллионы единиц, значит ли …

2
VC измерение регрессионных моделей
В серии лекций « Изучение данных» профессор упоминает, что измерение VC измеряет сложность модели по тому, на сколько точек данная модель может разбиться. Так что это прекрасно работает для моделей классификации, где мы можем сказать из N точек, если классификатор способен эффективно разбить k точек, мерой измерения VC будет K. …

3
Почему важен размер ВК?
Википедия говорит, что: Измерение VC - это мощность наибольшего множества точек, которые алгоритм может разрушить. Например, линейный классификатор имеет мощность n + 1. Мой вопрос, почему мы заботимся? Большинство наборов данных, по которым вы выполняете линейную классификацию, имеют тенденцию быть очень большими и содержать много точек.

1
Обобщающие оценки на SVM
Меня интересуют теоретические результаты для обобщающей способности машин опорных векторов, например, оценки вероятности ошибки классификации и размерности Вапника-Червоненкиса (VC) этих машин. Однако, читая литературу, у меня сложилось впечатление, что некоторые похожие повторяющиеся результаты имеют тенденцию незначительно отличаться от автора к автору, особенно в отношении технических условий, необходимых для выполнения определенной …

2
Расчет VC-размерности нейронной сети
Если у меня есть некоторая фиксированная неповторяющаяся (DAG) топология (фиксированный набор узлов и ребер, но алгоритм обучения может варьировать вес по ребрам) сигмоидных нейронов с входными нейронами, которые могут принимать строки только в { - 1 , 1 } n в качестве входных данных и приводит к одному выходному сигналу …

1
VC-размерность k-ближайшего соседа
Каково VC-измерение алгоритма k-ближайшего соседа, если k равно количеству используемых тренировочных точек? Контекст: этот вопрос был задан в ходе курса, который я взял, и ответа было 0. Я, однако, не понимаю, почему это так. Моя интуиция заключается в том, что VC-Dimension должно быть 1, потому что должна быть возможность выбрать …

3
VC размер прямоугольника
Книга Этема Альпайдина «Введение в машинное обучение» утверждает, что размер VC прямоугольника, ориентированного по оси, равен 4. Но как прямоугольник может разрушить набор из четырех коллинеарных точек с чередующимися положительными и отрицательными точками ?? Может кто-нибудь объяснить и доказать размерность прямоугольника VC?
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.