Вопросы с тегом «machine-learning»

Теоретические вопросы о машинном обучении, особенно теория компьютерного обучения, в том числе теория алгоритмического обучения, обучение PAC и байесовский вывод

1
Агностическое обучение по произвольным распределениям
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Скажем, что алгоритм независимо изучает по любому распределению, если для любого он может с вероятностью найти функцию такую, что , с учетом времени и число выборок из , ограниченное полиномом от и .AAACCCDDD2/32/32/3ffferr(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) …

3
Границы правильного обучения в VC
Хорошо известно, что для концептуального класса с размерностью VC достаточно получить помеченные примеры для PAC learn . Мне не ясно, является ли алгоритм обучения PAC (который использует эти многочисленные образцы) правильным или неправильным? В учебниках Кернса и Вазирани, а также Энтони и Биггса кажется, что алгоритм обучения PAC неправильный (т. …

2
Вводные ресурсы по вычислительной теории обучения
Недавно я прочитал приличное количество статей CoLT. Хотя я не борюсь с отдельными статьями (по крайней мере, не больше, чем я обычно борюсь с другими теоретическими работами), я не чувствую, что у меня есть хорошее широкое понимание области в целом. Существуют ли стандартные тексты, обзоры или конспекты лекций для введения …

3
Ресурс / книга о последних достижениях в статистической теории обучения
Я довольно хорошо знаком с теорией, лежащей в основе VC-Dimension, но сейчас я смотрю на последние (последние 10 лет) достижения в теории статистического обучения: (локально) средние Радемахера, лемма о конечных классах Массарта, Покрывающие числа, Цепочки, Дадли Теорема, псевдоразмерность, размерность, разбивающая жир, номера упаковок, состав Радемахера и, возможно, другие результаты / …

1
Нижняя граница выборки агностического PAC
Хорошо известно, что для классического обучения PAC необходимы примеры , чтобы получить границу ошибки ε whp, где d - это VC-размерность концептуального класса.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Известно ли, что примеры нужны в агностическом случае?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
Какие классификаторы машинного обучения являются наиболее распараллеливаемыми?
Какие классификаторы машинного обучения являются наиболее распараллеливаемыми? Если бы у вас была трудная проблема классификации, ограниченное время, но приличная сеть компьютеров для работы, с какими классификаторами вы бы попробовали? С моей стороны это выглядит как некоторые стандартные классификаторы, которые я знаю о стеке, как показано ниже, но я могу быть …

5
Каковы хорошие рекомендации по пониманию онлайн-обучения?
В частности, я прошу ресурсы, чтобы узнать о системах машинного обучения, которые могут обновлять свои соответствующие сети убеждений (или эквивалент) во время работы. Я даже сталкивался с несколькими, хотя не смог их добавить в закладки. Как вы можете себе представить, это довольно сложная тема для поиска в Интернете.

5
Можно ли использовать нейронные сети для разработки алгоритмов?
После новых и новых успехов нейронных сетей в игре в настольные игры, мы чувствуем, что следующая наша цель может быть чем-то более полезным, чем победа над людьми в Starcraft. Точнее, я задавался вопросом, Можно ли обучить нейронные сети для решения классических алгоритмических задач? Здесь я имею в виду, что, например, …

2
Теоретические результаты для случайных лесов?
Случайные леса имеют репутацию среди самых эффективных методов классификации. Тем не менее, мы не сталкиваемся с ними в учебно-теоретической литературе, из которой я предполагаю отсутствие глубоких теоретических результатов. Если бы кто-то хотел вникнуть в эту теорию, с чего бы начать?

1
VC размерность клеток Вороного в R ^ d?
Предположим, у меня есть Кkk указывает на RdRd\mathbb{R}^d, Они вызывают диаграмму Вороного. Если я назначу каждому изkkk указывает ±±\pm метка, они вызывают двоичную функцию на RdRd\mathbb{R}^d, Вопрос: какова VC-размерность всех таких возможных бинарных функций, вызванных некоторымиkkk очки и некоторая маркировка этих точек?

1
Учимся с (подписанными) ошибками
Background––––––––––––––Background_\underline{\bf Background} В 2005 году Регев [1] представил проблему «Обучение с ошибками» (LWE) - обобщение проблемы «Обучение с ошибками». Предположение о сложности этой задачи для определенных вариантов параметров теперь лежит в основе доказательств безопасности для множества постквантовых криптосистем в области решеточной криптографии. «Канонические» версии LWE описаны ниже. Отборочные: Позволять T=R/ZT=R/Z\mathbb{T} …

2
VC-измерение сфер в 3-х измерениях
Я ищу VC-размерность следующей заданной системы. вселенная U= {п1,п2, ... ,пм}U={p1,p2,…,pm}U=\{p_1,p_2,\ldots,p_m\} такой, что U⊆р3U⊆R3U\subseteq \mathbb{R}^3, В заданной системерR\mathcal{R} каждый набор S∈ RS∈RS\in \mathcal{R} соответствует сфере в R3R3\mathbb{R}^3 такой, что множество SSS содержит элемент в UUU если и только если соответствующая сфера содержит ее в R3R3\mathbb{R}^3, Детали, которые я уже знаю. …

2
Существуют ли семейства формальных языков, которые, как известно, действительно изучаемы в PAC?
Я имею в виду языковые семейства, которые допускают произвольно длинные строки, а не соединения по n битам или спискам решений или любому другому «простому» языку, содержащемуся в {0,1} ^ n. Я спрашиваю об «теоретико-автоматных» регулярных языках, в отличие от «теоретико-логических»: что-то вроде кусочно тестируемых языков, языков с нулевой начальной высотой, …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.