Насколько я могу судить, SOM в стиле Кохонена достигли пика примерно в 2005 году и в последнее время не пользовались такой большой пользой. Я не нашел ни одной статьи, в которой говорилось бы, что SOM были включены в другой метод или оказались эквивалентными чему-то другому (во всяком случае, в более высоких измерениях). Но похоже, что в наши дни tSNE и другие методы получают намного больше чернил, например, в Википедии или в SciKit Learn, а SOM упоминается скорее как исторический метод.
(На самом деле, статья в Википедии, кажется, указывает на то, что СДЛ по-прежнему имеют определенные преимущества перед конкурентами, но это также самая короткая запись в списке. РЕДАКТИРОВАТЬ: По запросу Гунга, одна из статей, о которых я думаю, это: Нелинейное уменьшение размерности Обратите внимание, что SOM написал об этом меньше, чем другие методы. Я не могу найти статью, в которой упоминается преимущество, которое SOM, похоже, сохраняет над большинством других методов.)
Есть идеи? Кто-то еще спросил, почему SOM не используются, и получил ссылки, сделанные недавно, и я обнаружил материалы конференций SOM, но мне было интересно, затмил ли рост SVM или tSNE и др. Только SOM в обучении на поп-машинах.
РЕДАКТИРОВАТЬ 2: По стечению обстоятельств, я только что читал обзор 2008 года по нелинейному уменьшению размерности этим вечером, и для примеров он упоминает только: Isomap (2000), локально линейное вложение (LLE) (2000), Hessian LLE (2003), Laplacian собственные карты (2003) и полуопределенные вложения (SDE) (2004).