Что означает теория обучения PAC?


15

Я новичок в машинном обучении. Я изучаю курс машинного обучения (Стэнфордский университет), и я не понял, что подразумевается под этой теорией и в чем ее польза. Мне интересно, может ли кто-нибудь описать эту теорию для меня.

Эта теория основана на этом уравнении. введите описание изображения здесь


2
PAC расшифровывается как «Вероятно, приблизительно правильно».
Марк Клазен

@MarcClaesen, Могу ли я объяснить это так: «Это означает, что подходы машинного обучения предлагают вероятностное решение для данной проблемы, и это решение имеет тенденцию быть приблизительно верным»
BetterEnglish

Ответы:


16

Вероятно, приблизительно правильная (PAC) теория обучения помогает проанализировать, будет ли ученик и при каких условиях выводить приблизительно правильный классификатор. (Вы увидите, что некоторые источники используют букву А вместо буквы Л. )LAL

Во-первых, давайте определим «приблизительный». Гипотеза является приблизительно верной, если ее погрешность в распределении входов ограничена некоторыми ϵ , 0 ϵ 1hHТ.е.,етготД(ч)<ε, гдеDпредставляет собой распределение по входам.ϵ,0ϵ12.errorD(h)<ϵD

Далее «наверное». Если выведет такой классификатор с вероятностью 1 - δ , с 0 δ 1L1δ , мы называем этот классификатор,вероятно,приблизительно правильным.0δ12

Знание того, что целевая концепция может быть изучена PAC, позволяет вам ограничить размер выборки, необходимый для того, чтобы, вероятно, выучить приблизительно правильный классификатор, как показано в приведенной вами формуле:

m1ϵ(ln|H|+ln1δ)

Чтобы получить некоторое представление об этом, обратите внимание на влияние на при изменении переменных в правой части. При уменьшении допустимой ошибки необходимый размер выборки увеличивается. Кроме того, он растет с вероятностью приблизительно правильного ученика, и с размером гипотезы пространства H . (Скорее всего, пространство гипотез - это набор классификаторов, которые рассматривает ваш алгоритм.) Более просто, поскольку вы рассматриваете больше возможных классификаторов или хотите меньшую ошибку или более высокую вероятность правильности, вам нужно больше данных, чтобы различать их.mH

Более того, это и другие похожие видео могут быть полезны, как это длинное введение или один из многих текстов по машинному обучению, например, Митчелл .


Это является типом ответа я искал в течение длительного времени; оба простые, но здоровые. Хотя многие источники дают исчерпывающий ответ, для быстрого ознакомления он не столь предпочтителен.
Ébe Исаак

4


(xi,yi)xiyix~y~
скажем, хотя 1000000 Если бы вам дали последовательность 1, 2, 3, ... 999 999, можно было бы быть уверенным, что следующее число - 1 000 000. Однако следующее число может быть 999 999,5 или даже 5. Дело в том, что чем больше данных вы видите, тем больше уверенность в том, что вы создали точную модель, но никогда не можете быть абсолютно уверены.

xi,1imyifθfΘp>1δfΘϵ(δ,ϵ)(δ,ϵ) и насколько сложен данный класс гипотез.

Hfθ(ϵ,δ)0<ϵ,δ,<.5fΘx~,y~Err(fΘ(x~),y~)<ϵp>1δm=m(δ,ϵ,H)(fΘ(x~)y~)2

(δ,ϵ)

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.