Ниже приведен пример мультиклассовой матрицы путаницы, предполагающей, что метками наших классов являются A, B и C.
A / P A B C Сумма
A 10 3 4 17
B 2 12 6 20
C 6 3 9 18
Сумма 18 18 19 55
Теперь мы вычислим три значения для Precision и Recall каждого и назовем их Pa, Pb и Pc; и аналогично Ra, Rb, Rc.
Мы знаем Точность = TP / (TP + FP), поэтому для истинного положительного значения Pa будет действительное значение A, прогнозируемое как A, т. Е. 10, остальные две ячейки в этом столбце, будь то B или C, делают False Positive. Так
Па = 10/18 = 0,55 Ra = 10/17 = 0,59
Теперь точность и отзыв для класса B - это Pb и Rb. Для класса B истинно положительным является фактический B, предсказанный как B, то есть ячейка, содержащая значение 12, а остальные две ячейки в этом столбце делают False Positive, поэтому
Pb = 12/18 = 0,67 Rb = 12/20 = 0,6
Аналогично Pc = 9/19 = 0,47 Rc = 9/18 = 0,5
Общая производительность классификатора будет определяться средней точностью и средним отзывом. Для этого мы умножаем значение точности для каждого класса на фактическое количество экземпляров для этого класса, затем добавляем их и делим их на общее количество экземпляров. Подобно ,
Средняя точность = (0,55 * 17 + 0,67 * 20 + 0,47 * 18) / 55 = 31,21 / 55 = 0,57 Среднее количество отзывов = (0,59 * 17 + 0,6 * 20 + 0,5 * 18) / 55 = 31,03 / 55 = 0,56
Я надеюсь, что это помогает