В машинном обучении мы можем использовать область под кривой ROC (часто сокращенно AUC или AUROC), чтобы суммировать, насколько хорошо система может различать две категории. В теории обнаружения сигналов часто (индекс чувствительности) используется для аналогичной цели. Эти два тесно связаны, и я считаю, что они эквивалентны друг другу, если определенные предположения будут выполнены .
расчет, как правило , представлен на основе предположения нормальных распределений для распределений сигналов (см википедии ссылки выше, например). Расчет кривой ROC не делает этого предположения: он применим к любому классификатору, который выводит критерий непрерывного решения, который может быть пороговым.
Википедия говорит , что эквивалентно . Это кажется правильным, если предположения обоих выполнены; но если предположения не совпадают, это не универсальная правда.
Справедливо ли характеризовать разницу в допущениях как «AUC делает меньше допущений относительно базовых распределений»? Или самом деле так же широко применим, как AUC, но это просто обычная практика, когда люди, использующие склонны использовать вычисления, которые предполагают нормальное распределение? Есть ли другие различия в базовых предположениях, которые я пропустил?