t
t-SNE пытается минимизировать сумму расхождений Кульбака-Лейблера между распределением расстояний между данными в исходной области и распределением расстояний между данными в области уменьшенных измерений (фактически целевые распределения являются распределениями вероятность того, что точка выберет другую точку в качестве соседа, но они прямо пропорциональны расстоянию между двумя точками). Можно утверждать, что меньшие значения KL-дивергенции показывают лучшие результаты. Эта идея не очень хорошо работает на практике, но теоретически она поможет исключить некоторые диапазоны значений недоумения, а также некоторые прогоны алгоритма, которые явно неоптимальны. Я объясняю, почему эта эвристика далека от панацеи и как она может быть слегка полезна: Параметр растерянности монотонно возрастает с дисперсией гауссиана, используемой для расчета расстояний / вероятностей. Поэтому при увеличении параметра растерянности в целом вы будете получать меньшие расстояния в абсолютном выражении и последующих значениях KL-дивергенции. Тем не менее, если у вас есть 20 пробежек с одинаковым недоумением, и вы не можете (не хотите) смотреть на них, вы всегда можете выбрать ту, которая имеет наименьшую переменную, надеясь, что она с большей точностью сохраняет исходные расстояния. То же самое касается Тем не менее, если у вас есть 20 пробежек с одинаковым недоумением, и вы не можете (не хотите) смотреть на них, вы всегда можете выбрать ту, которая имеет наименьшую переменную, надеясь, что она с большей точностью сохраняет исходные расстояния. То же самое касается Тем не менее, если у вас есть 20 пробежек с одинаковым недоумением, и вы не можете (не хотите) смотреть на них, вы всегда можете выбрать ту, которая имеет наименьшую переменную, надеясь, что она с большей точностью сохраняет исходные расстояния. То же самое касаетсяθθ
kКTT-SNE использовался в первую очередь, в конце концов, если результирующее представление неинформативно для исследуемых нами свойств, тогда оно просто бесполезно, несмотря на низкую ошибку реконструкции, визуальную привлекательность и т. Д.
Позвольте мне указать, что я описываю эвристику . Как упоминалось в начале моего поста, ручная проверка результатов является незаменимым способом оценки качества результирующего сокращения / кластеризации размерности.