Вопросы с тегом «lg.learning»

Теория машинного обучения и обучения: PAC, теория алгоритмического обучения, вычислительные аспекты байесовского вывода и графические модели.

3
Ресурс / книга о последних достижениях в статистической теории обучения
Я довольно хорошо знаком с теорией, лежащей в основе VC-Dimension, но сейчас я смотрю на последние (последние 10 лет) достижения в теории статистического обучения: (локально) средние Радемахера, лемма о конечных классах Массарта, Покрывающие числа, Цепочки, Дадли Теорема, псевдоразмерность, размерность, разбивающая жир, номера упаковок, состав Радемахера и, возможно, другие результаты / …

1
Нижняя граница выборки агностического PAC
Хорошо известно, что для классического обучения PAC необходимы примеры , чтобы получить границу ошибки ε whp, где d - это VC-размерность концептуального класса.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Известно ли, что примеры нужны в агностическом случае?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
Какие классификаторы машинного обучения являются наиболее распараллеливаемыми?
Какие классификаторы машинного обучения являются наиболее распараллеливаемыми? Если бы у вас была трудная проблема классификации, ограниченное время, но приличная сеть компьютеров для работы, с какими классификаторами вы бы попробовали? С моей стороны это выглядит как некоторые стандартные классификаторы, которые я знаю о стеке, как показано ниже, но я могу быть …

3
Проблема выбора ключевого слова на аукционе поискового маркетинга
Во-первых, я до сих пор не уверен, хорошо ли подходит этот вопрос для этого вопроса, поэтому я не буду обижаться, если толпа думает, что это не так ... В поисковом маркетинге несколько проблем интересны. Разработка справедливых (и прибыльных) аукционных механизмов и расчет оптимальных стратегий торгов при ограниченных денежных ресурсах являются …

5
Каковы хорошие рекомендации по пониманию онлайн-обучения?
В частности, я прошу ресурсы, чтобы узнать о системах машинного обучения, которые могут обновлять свои соответствующие сети убеждений (или эквивалент) во время работы. Я даже сталкивался с несколькими, хотя не смог их добавить в закладки. Как вы можете себе представить, это довольно сложная тема для поиска в Интернете.

1
Правильное PAC обучение 2-DNF при равномерном распределении
Каков современный уровень сложности запросов для правильных формул PAC, изучающих 2-DNF с типовыми запросами и при равномерном распределении ? Или какие-нибудь нетривиальные ограничения на это? Поскольку я совсем не знаком с теорией обучения, и этот вопрос мотивирован другой областью, ответ может быть очевидным. Я проверил книгу Кернса и Вазирани, но …

2
Теоретические результаты для случайных лесов?
Случайные леса имеют репутацию среди самых эффективных методов классификации. Тем не менее, мы не сталкиваемся с ними в учебно-теоретической литературе, из которой я предполагаю отсутствие глубоких теоретических результатов. Если бы кто-то хотел вникнуть в эту теорию, с чего бы начать?

1
VC размерность клеток Вороного в R ^ d?
Предположим, у меня есть Кkk указывает на RdRd\mathbb{R}^d, Они вызывают диаграмму Вороного. Если я назначу каждому изkkk указывает ±±\pm метка, они вызывают двоичную функцию на RdRd\mathbb{R}^d, Вопрос: какова VC-размерность всех таких возможных бинарных функций, вызванных некоторымиkkk очки и некоторая маркировка этих точек?

2
Существуют ли семейства формальных языков, которые, как известно, действительно изучаемы в PAC?
Я имею в виду языковые семейства, которые допускают произвольно длинные строки, а не соединения по n битам или спискам решений или любому другому «простому» языку, содержащемуся в {0,1} ^ n. Я спрашиваю об «теоретико-автоматных» регулярных языках, в отличие от «теоретико-логических»: что-то вроде кусочно тестируемых языков, языков с нулевой начальной высотой, …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.