Вопросы с тегом «lg.learning»

Теория машинного обучения и обучения: PAC, теория алгоритмического обучения, вычислительные аспекты байесовского вывода и графические модели.

1
Минимизация остаточных конечных автоматов
Остаточные автоматы в конечном состоянии (RFSA, определенные в [DLT02]) - это NFA, которые имеют некоторые общие черты с DFA. В частности, для каждого обычного языка всегда существует канонический RFSA минимального размера, а язык, распознаваемый каждым государством в RFSA, является остаточным, как и в DFA. Однако, хотя минимальные состояния DFA формируют …

1
Стоимость запроса эквивалентности для DFA
Вдохновленный этим вопросом , мне интересно следующее: Какова сложность наихудшего случая проверки, принимает ли данный DFA тот же язык, что и данное регулярное выражение? Это известно? Надежда будет заключаться в том, что эта проблема в P - что есть алгоритм полинома в размере обоих.


5
алгоритм кластеризации для безразмерных данных
у меня есть набор данных из тысяч точек и средство измерения расстояния между любыми двумя точками, но точки данных не имеют размерности. я хочу алгоритм, чтобы найти кластерные центры в этом наборе данных. Я полагаю, что поскольку данные не имеют измерений, центр кластера может состоять из нескольких точек данных и …

2
Вычислительная сложность запросов SQ-обучения
Известно, что для обучения PAC существуют естественные классы понятий (например, подмножества списков решений), для которых существуют полиномиальные разрывы между сложностью выборки, необходимой для теоретического обучения информации неограниченным в вычислительном отношении учеником, и сложностью выборки, необходимой для полиномиального ученик времени (см., например, http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE или http://portal.acm.org/citation.cfm?id=301437 ) Эти результаты, похоже, зависят от …

1
Учитывая
Вот проблема с похожим вкусом к изучению хунт: Входные данные: функция f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , представленная оракулом членства, то есть оракулом, который дал xxx , возвращает f(x)f(x)f(x) . Цель: Найти вложенный куб SSS из {0,1}n{0,1}n\{0,1\}^n с объемом |S|=2n−k|S|=2n−k|S|=2^{n-k} такое, что |Ex∈Sf(x)|≥0.1|Ex∈Sf(x)|≥0.1\left|\mathbb{E}_{x \in S} f(x) \right| \ge 0.1 . Мы …

1
Noisy Parity (LWE) нижние границы / результаты твердости
Немного предыстории: Я заинтересован в поиске «менее известных» нижних границ (или результатов твердости) для задачи «Обучение с ошибками» (LWE) и их обобщений, таких как «Обучение с ошибками над кольцами». Для конкретных определений и т. Д., Вот хороший обзор Регева: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Стандартный тип (R) предположения в стиле LWE заключается в (возможно, …

1
Нижние границы для обучения в запросе членства и модели контрпримеров
Дана Англюин ( 1987 ; pdf ) определяет модель обучения с помощью запросов на членство и теоретических запросов (контрпримеры к предложенной функции). Она показывает, что регулярный язык, представленный минимальным DFA из состояний, может быть изучен за полиномиальное время (где предложенные функции - DFA) с запросами на членство и не более …

2
Любые классы гипотез, кроме четности в шумном PAC, но не в SQ?
Angluin и Laird ('88) формализовали обучение со случайно искаженными данными в модели «PAC со случайным классификационным шумом» (или с шумным PAC). Эта модель аналогична обучению PAC , за исключением того, что метки примеров, данных учащемуся, искажены (перевернуты) независимо друг от друга наугад, с вероятностью .η&lt;1/2η&lt;1/2\eta < 1/2 Чтобы помочь охарактеризовать …

2
Кластеризационные формализации, отличные от K-средних для разделяемых данных
Данные реального мира иногда имеют естественное количество кластеров (попытка сгруппировать их в число кластеров, меньших, чем какое-либо волшебство k, приведет к значительному увеличению стоимости кластеризации). Сегодня я посетил лекцию доктора Адама Мейерсона, и он назвал этот тип данных «разделяемыми данными». Какие еще формализации кластеризации, кроме K-средних, могут быть применимы к …

1
Агностическое обучение по произвольным распределениям
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Скажем, что алгоритм независимо изучает по любому распределению, если для любого он может с вероятностью найти функцию такую, что , с учетом времени и число выборок из , ограниченное полиномом от и .AAACCCDDD2/32/32/3ffferr(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) …

3
Обучение с «молчаливыми» оракулами
Мой вопрос немного общий, поэтому я придумываю хорошую историю, чтобы оправдать его. Терпите меня, если это не реально ;-) Сказка Г-н Х, глава отдела компьютерной безопасности крупной компании, немного параноик: он требует, чтобы все сотрудники меняли свои пароли раз в месяц, чтобы минимизировать риски кражи личных данных или информации. Более …

3
Границы правильного обучения в VC
Хорошо известно, что для концептуального класса с размерностью VC достаточно получить помеченные примеры для PAC learn . Мне не ясно, является ли алгоритм обучения PAC (который использует эти многочисленные образцы) правильным или неправильным? В учебниках Кернса и Вазирани, а также Энтони и Биггса кажется, что алгоритм обучения PAC неправильный (т. …

1
Вопрос паритетного обучения
Определим класс функций для набора из битов. Исправьте два распределения , которые «разумно» отличаются друг от друга (если хотите, их вариационное расстояние составляет не менее , или что-то подобное).p , q ϵNnnр , дp,qp, qεϵ\epsilon Теперь каждая функция в этом классе определяется набором из индексов и оценивается следующим образом: если …

2
Вводные ресурсы по вычислительной теории обучения
Недавно я прочитал приличное количество статей CoLT. Хотя я не борюсь с отдельными статьями (по крайней мере, не больше, чем я обычно борюсь с другими теоретическими работами), я не чувствую, что у меня есть хорошее широкое понимание области в целом. Существуют ли стандартные тексты, обзоры или конспекты лекций для введения …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.