Вопросы с тегом «machine-learning»

Теоретические вопросы о машинном обучении, особенно теория компьютерного обучения, в том числе теория алгоритмического обучения, обучение PAC и байесовский вывод

2
Учим треугольники в самолете
Я поставил перед своими учениками задачу нахождения треугольника, согласующегося с набором точек в R 2 , помеченных как ± 1 . (Треугольник Т является согласуется с меченым образцом , если Т содержит все положительные и ни один из негативных моментов, по предположению, образец допускает по меньшей мере , 1 соответствует …

1
Каков компромисс между размером популяции и количеством поколений в генетических алгоритмах?
Генетические алгоритмы развиваются в меньшем количестве поколений с большей популяцией, но также требуют больше времени для вычисления поколения. Существуют ли какие-то руководящие принципы для уравновешивания этих двух факторов, чтобы как можно скорее найти жизнеспособное решение? Кроме того, это лучшее место для вопроса?

3
Статистические алгоритмы модели запросов?
Я задал этот вопрос в перекрестной проверке вопросов и ответов, но, похоже, он связан с CS гораздо больше, чем со статистикой. Можете ли вы привести примеры алгоритмов машинного обучения, которые изучают статистические свойства набора данных, а не отдельные наблюдения, то есть используют статистическую модель запросов ?

1
Вычислительная мощность нейронных сетей?
Допустим, у нас есть однослойная прямая нейронная сеть с k входами и одним выходом. Он вычисляет функцию из , довольно легко увидеть, что она имеет по крайней мере ту же вычислительную мощность, что и A C 0 . Просто для удовольствия мы назовем набор функций, вычислимых однослойной нейронной сетью, « …

1
Ссылочный запрос: субмодулярная минимизация и монотонные булевы функции
Справочная информация: В машинном обучении мы часто работаем с графическими моделями, чтобы представить функции плотности с высокой размерностью. Если отбросить ограничение на интеграцию плотности (суммы) в 1, мы получим ненормализованную графо-структурированную энергетическую функцию . Предположим, у нас есть такая энергетическая функция , определенная на графе . Существует одна переменная для …

12
Какие существуют реальные приложения для генетических алгоритмов?
Какие проблемы реального мира были решены с использованием генетического алгоритма? В чем проблема? Какой фитнес-тест используется для решения этой проблемы?

5
Почему машинное обучение не может распознавать простые числа?
Скажем, у нас есть векторное представление любого целого числа n, V_n Этот вектор является входом в алгоритм машинного обучения. Первый вопрос: для какого типа представлений можно узнать первичность / составность n, используя нейронную сеть или какое-либо другое ML-отображение векторов в биты. Это чисто теоретически - нейронная сеть может быть неограниченной …

3
Когда использовать лемму Джонсона-Линденштраусса над СВД?
Лемма Джонсона-Линденштраусса позволяет представлять точки в многомерном пространстве в точки в более низком измерении. При нахождении низкоразмерных пространств наилучшего соответствия стандартная методика заключается в том, чтобы найти разложение по сингулярному значению и затем взять подпространство, порожденное наибольшим сингулярным значением. Когда интересно использовать Джонсона-Линденштраусса над СВД?

5
алгоритм кластеризации для безразмерных данных
у меня есть набор данных из тысяч точек и средство измерения расстояния между любыми двумя точками, но точки данных не имеют размерности. я хочу алгоритм, чтобы найти кластерные центры в этом наборе данных. Я полагаю, что поскольку данные не имеют измерений, центр кластера может состоять из нескольких точек данных и …

2
Вычислительная сложность запросов SQ-обучения
Известно, что для обучения PAC существуют естественные классы понятий (например, подмножества списков решений), для которых существуют полиномиальные разрывы между сложностью выборки, необходимой для теоретического обучения информации неограниченным в вычислительном отношении учеником, и сложностью выборки, необходимой для полиномиального ученик времени (см., например, http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE или http://portal.acm.org/citation.cfm?id=301437 ) Эти результаты, похоже, зависят от …

1
Учитывая
Вот проблема с похожим вкусом к изучению хунт: Входные данные: функция f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , представленная оракулом членства, то есть оракулом, который дал xxx , возвращает f(x)f(x)f(x) . Цель: Найти вложенный куб SSS из {0,1}n{0,1}n\{0,1\}^n с объемом |S|=2n−k|S|=2n−k|S|=2^{n-k} такое, что |Ex∈Sf(x)|≥0.1|Ex∈Sf(x)|≥0.1\left|\mathbb{E}_{x \in S} f(x) \right| \ge 0.1 . Мы …

1
Как агрегации баз данных образуют моноид?
На cs.stackexchange я спросил о scala-библиотеке algebird на github, размышляя о том, почему им может понадобиться пакет абстрактной алгебры. Страница GitHub имеет несколько подсказок: Реализации Monoids для интересных алгоритмов аппроксимации, таких как фильтр Блума, HyperLogLog и CountMinSketch. Они позволяют вам думать об этих изощренных операциях, как о числах, которые вы …

1
Noisy Parity (LWE) нижние границы / результаты твердости
Немного предыстории: Я заинтересован в поиске «менее известных» нижних границ (или результатов твердости) для задачи «Обучение с ошибками» (LWE) и их обобщений, таких как «Обучение с ошибками над кольцами». Для конкретных определений и т. Д., Вот хороший обзор Регева: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Стандартный тип (R) предположения в стиле LWE заключается в (возможно, …

1
Нижние границы для обучения в запросе членства и модели контрпримеров
Дана Англюин ( 1987 ; pdf ) определяет модель обучения с помощью запросов на членство и теоретических запросов (контрпримеры к предложенной функции). Она показывает, что регулярный язык, представленный минимальным DFA из состояний, может быть изучен за полиномиальное время (где предложенные функции - DFA) с запросами на членство и не более …

5
Существует ли метод градиентного спуска для поиска абсолютного минимума (максимума) функции в многомерном пространстве?
Я знаком с алгоритмом градиентного спуска, который может найти локальный минимум (максимум) данной функции. Есть ли какая-либо модификация градиентного спуска, которая позволяет найти абсолютный минимум (максимум), где функция имеет несколько локальных экстремумов? Существуют ли общие методы, как улучшить алгоритм, который может найти локальный экстремум, для нахождения абсолютного экстремума?

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.