Я хотел бы сравнить 2 разных классификатора для задачи классификации текстов с несколькими классами, которые используют большие обучающие наборы данных. Я сомневаюсь, должен ли я использовать кривые ROC или кривые обучения, чтобы сравнить 2 классификатора.
С одной стороны, кривые обучения полезны для определения размера набора обучающих данных, поскольку вы можете найти размер набора данных, при котором классификатор прекращает обучение (и, возможно, ухудшается). Таким образом, лучшим классификатором в этом случае может быть тот, который достигает максимальной точности при наименьшем размере набора данных.
С другой стороны, кривые ROC позволяют найти точку с правильным компромиссом между чувствительностью / специфичностью. Лучший классификатор в этом случае - только тот, который ближе к верхней левой части, с самым высоким TPR для любого FPR.
Должен ли я использовать оба метода оценки? Возможно ли, чтобы метод с лучшей кривой обучения имел худшую кривую ROC, и наоборот?