Сравнение двух моделей, когда кривые ROC пересекают друг друга


13

Одна общая мера, используемая для сравнения двух или более классификационных моделей, заключается в использовании площади под кривой ROC (AUC) в качестве способа косвенной оценки их эффективности. В этом случае модель с большим AUC обычно интерпретируется как работающая лучше, чем модель с меньшим AUC. Но, согласно Vihinen, 2012 ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3303716/ ), когда обе кривые пересекают друг друга, такое сравнение больше не является действительным. Почему это так?

Например, что можно узнать о моделях A, B и C на основе кривых ROC и AUC ниже?

введите описание изображения здесь

Ответы:


19

РПЦ кривая визуализирует TPR и FPR для всех возможных порогов .

  • Если вы строите две кривые ROC «A» и «B», и они не пересекают друг друга, то один из ваших классификаторов явно работает лучше, потому что для всех возможных значений FPR вы получаете более высокий TPR. Очевидно, что площадь под РПЦ также будет больше.

  • Теперь, если они пересекаются , то есть точка, в которой FPR и TPR одинаковы для обеих кривых «A» и «B» . Вы больше не можете сказать, что одна кривая ROC работает лучше, поскольку теперь она зависит от того, какой компромисс вы предпочитаете. Хотите высокую Точность / Низкий Повтор или Низкую Точность / Высокий Повтор ?

Пример: если один классификатор работает намного лучше при FPR 0,2, но важно достичь высокого значения Recall , тогда он работает хорошо на пороге, который вас не интересует.

О кривых ROC на вашем графике: Вы можете легко сказать, что «А» работает намного лучше, даже не зная, чего вы хотите достичь. Как только фиолетовая кривая пересекает другие, она снова пересекает их. Скорее всего, вы не заинтересованы в этой маленькой части , где «B» и «C» работают немного лучше .

На следующем графике вы видите две кривые ROC, которые также пересекают друг друга. Здесь вы не можете сказать, какой из них лучше, поскольку они как бы дополняют друг друга .

Пересечение кривых ROC

Обратите внимание, что в конце дня вы заинтересованы в выборе одного порога для вашей классификации, и AUC дает вам только оценку того, насколько хорошо модель работает в целом .


Просто для подтверждения, в моем примере, если я выберу очень высокое предельное значение, где точность велика, модель A будет превосходить B и C с хорошим запасом?
Edu

Как узнать, где точность велика? Это ROC, а не кривая Precision-Recall. Для точности вы проверяете вероятность истинного положительного, учитывая, что ваш классификатор сказал положительное.
Лаксан Натан
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.