Это широко рассматривается в статистической литературе по теме регрессии. Здесь есть две стандартные ссылки: книга Вассермана «Вся непараметрическая статистика» и «Введение в непараметрическую оценку» Цыбакова. Я кратко расскажу о некоторых стандартных вещах и попытаюсь дать указатели вне статистики (это общая тема, и разные области имеют разные культуры: доказывают разные виды теорем, делают разные предположения).
(Регрессоры ядра, иногда называемые оценщиком Надарая-Ватсона.) Здесь вы записываете функцию в любой точке как взвешенную комбинацию близлежащих значений. Более конкретно, поскольку это в статистической литературе, вы обычно предполагаете, что у вас есть несколько примеров взятых из некоторого дистрибутива, и исправляете некоторое ядро K (можете думать об этом как Гаусс, но с нулевым средним является то , что наиболее важно), и писать
е ( х ) : = Σ я е ( х я( ( хя, ф( хя) ) )Nя = 1К
гдесп→∞(вы более чувствительны к малым расстояниямкакпвозрастает). Гарантия состоит в том, что приn→∞вероятностный критерий искажения (ожидание супра-нормы, высокая вероятность, что угодно) стремится к нулю. (Вряд ли имеет значение, каквыглядитK- больше важно, как вы выбираетеcn.)
е^( х ) : = ∑яе( хя) ( K( сN( х - хя) )ΣJК( сN( х - хJ) )) ,
сN→ ∞Nn → ∞КсN
L2е^е, Чтобы получить представление о разнообразии подходов здесь, аккуратная статья Рахими и Рехта "равномерное приближение функций со случайными основаниями". Возможно, я должен сказать, что прадедушка всех этих - расширение Фурье; об этом есть много хороших материалов в книге Маллата о вейвлетах.
(Методы дерева.) Другой способ - рассматривать функцию как дерево; на каждом уровне вы работаете с некоторым разделом домена и возвращаете, например, среднюю точку. (Каждое сокращение дерева также дает раздел.) В пределе, тонкость этого раздела больше не будет дискретизировать функцию, и вы точно восстановили ее. Как лучше выбрать этот раздел - сложная проблема. (Вы можете погуглить это под "деревом регрессии".)
(Полиномиальные методы; см. Также сплайны и другие методы интерполяции.) По теореме Тейлора вы знаете, что вы можете получить произвольно близкие к хорошим функциям функции. Это может показаться очень простым подходом (т. Е. Просто использовать интерполяционный многочлен Лагранжа), но где все становится интересным, это решить, какойуказывает на интерполяцию. Это было тщательно исследовано в контексте численного интегрирования; Вы можете найти удивительную математику по темам «квадратура Кленшоу-Кертиса» и «квадратура Гаусса». Я добавляю это сюда, потому что типы предположений и гарантий здесь так радикально отличаются от тех, которые появляются выше. Мне нравится это поле, но эти методы очень сильно страдают от проклятия измерения, по крайней мере, я думаю, что именно поэтому они менее обсуждаются, чем раньше (если вы делаете числовую интеграцию с Mathematica, я думаю, что это делает квадратуру для одномерных доменов, но методы выборки для многомерных доменов).
Принимая во внимание различные ограничения для вашего класса функций, вы можете создать экземпляр выше, чтобы получить все виды других широко используемых сценариев. Например, с булевозначными функциями thresholding (1.) будет очень похож на оценку ближайшего соседа или SVM с некоторым локальным ядром (гауссовским). Многие из вышеперечисленных вещей страдают от проклятия измерения (границы показывают экспоненциальную зависимость от измерения). В машинном обучении вы можете обойти это либо путем явного ограничения вашего класса некоторым семейством (т. Е. «Параметрическими методами»), либо с помощью неявного ограничения, обычно связывающего качество аппроксимантов со сложностью целевой функции (т. Е. Аналог слабое усвоение знаний в повышении).
е: Rd→ R
е( х ) = ∑J = 02 гчасJ( ∑я = 1dграммJ , я( хя) ) ,
граммJ , я: R → RчасJ: R → RграммчасΘ ( д2)
(Вы спрашивали только о классах функций, но я подумал, что вы также будете заинтересованы в методах ... если нет .. упс)