Скажем, что алгоритм независимо изучает по любому распределению, если для любого он может с вероятностью найти функцию такую, что , с учетом времени и число выборок из , ограниченное полиномом от и .
Вопрос: Какие классы функций как известно, являются агностически обучаемыми по произвольным распределениям?
Ни один класс не слишком прост! Я знаю, что даже монотонные соединения, как известно, не могут быть изучены агностически в произвольных распределениях, поэтому я просто ищу нетривиальные классы функций.
Стоит отметить для непосвященных, что агностическое обучение сосредоточено на том случае, когда OPT (C, D)> 0 (т.е. у вас неправильный класс гипотез
—
Суреш Венкат
Хорошая точка зрения. В особом случае, когда OPT (C, D) = 0, это обучение PAC, и это намного проще. Для агностического обучения гарантия должна действовать независимо от того, что такое OPT (C, D).
—
Аарон Рот
Есть также случай «PAC w / Classification Noise», где OPT (C, D)> 0, и хотя у вас есть правильный класс гипотез (реализуемый параметр), есть некоторая ошибка, потому что метки случайно меняются из-за шума ... I хотелось бы, чтобы названия разных настроек были менее запутанными.
—
Лев Рейзин
это звучит как агностическое обучение с верхней границей OPT (C, D)
—
Суреш Венкат
Не совсем, потому что шум не может быть произвольным в модели классификации шума. Таким образом, если бы существовала какая-то враждебная картина шума, которая усложняла обучение (или находило эмпирический минимизатор риска) в агностической модели, это не могло бы часто происходить в модели классификации шума (то есть попадание в дельта-параметр PAC).
—
Лев Рейзин