Я думаю, что вы должны смотреть на методы онлайн-обучения . Персептрон и персептрон ядро очень легко кода и работать очень хорошо на практике, и существует целый ряд других онлайновых методов. Обратите внимание, что любой метод онлайн-обучения может быть преобразован в алгоритм пакетного обучения, и в этом случае они очень похожи на методы стохастического градиентного спуска.
Если вы используете Matlab, есть действительно хороший набор инструментов под названием DOGMA от Francesco Orabona, который содержит ряд алгоритмов онлайн-обучения, и вы можете оценить несколько различных методов, используя это. Я использовал это в некоторых своих исследованиях и нашел, что это очень полезно (обратите внимание, что, насколько я помню, данные ожидаются как [функции x примеров], поэтому вам, возможно, придется их транспонировать).
Как уже упоминалось, вы можете попробовать уменьшить размерность. PCA может быть не очень хорошим вариантом, так как вам нужно вычислить ковариационную матрицу, которая будет очень дорогой. Вы можете попробовать посмотреть на случайные проекции . Теория жесткая, но принцип очень прост. Он основан на Джонсон-Линденштраус лемме , если вы заинтересованы, но основная идея заключается в том, что если вы случайно проецировать в нижнее пространство, то расстояние между точками сохраняются до некоторых е . Если вы используете ядро РФБ, то ℓ 2 расстояния все , что вы заинтересованы в!ℓ2ϵℓ2