Вопросы с тегом «accuracy»

Точность оценки - это степень близости оценок к истинному значению. Для классификатора точность - это пропорция правильных классификаций. (Это второе использование не является хорошей практикой. См. Тег вики для ссылки на дополнительную информацию.)

1
Является ли точность неправильным правилом оценки в бинарной классификации?
Недавно я узнал о правильных правилах оценки вероятностных классификаторов. Несколько потоков на этом сайте подчеркивали, что точность является неправильным правилом оценки и не должна использоваться для оценки качества прогнозов, генерируемых вероятностной моделью, такой как логистическая регрессия. Тем не менее, довольно много научных статей, которые я читал, приводили потерю из-за неправильной …

2
Коэффициент Кости такой же, как точность?
Я сталкиваюсь с коэффициентом Кости для сходства объема ( https://en.wikipedia.org/wiki/S%C3%B8rensen%E2%80%93Dice_coefficient ) и точности ( https://en.wikipedia.org/wiki/Accuracy_and_precision ). Мне кажется, что эти две меры одинаковы. Какие-нибудь мысли?

3
Насколько хороша моя модель, основанная на значении диагностической метрики (
Я установил свою модель и пытаюсь понять, хороша ли она. Я рассчитал рекомендуемые показатели для его оценки ( / AUC / точность / ошибка прогнозирования / и т. Д.), Но не знаю, как их интерпретировать. Короче говоря, как мне определить, хороша ли моя модель по метрике? Достаточно ли 0,6 (например), …

1
Почему выбор характеристик важен для задач классификации?
Я учусь о выборе функций. Я понимаю, почему это важно и полезно для построения моделей. Но давайте сосредоточимся на контролируемых задачах обучения (классификации). Почему выбор характеристик важен для задач классификации? Я вижу много литературы, написанной о выборе функций и их использовании для обучения под наблюдением, но это меня озадачивает. Выбор …

1
Система голосования, которая использует точность каждого избирателя и связанную с этим неопределенность
Допустим, у нас есть простой вопрос «да / нет», на который мы хотим знать ответ. И есть N людей, «голосующих» за правильный ответ. У каждого избирателя есть история - список 1 и 0, показывающий, были ли они правы или нет в отношении таких вопросов в прошлом. Если мы примем историю …

1
Оценка классификаторов: кривые обучения против кривых ROC
Я хотел бы сравнить 2 разных классификатора для задачи классификации текстов с несколькими классами, которые используют большие обучающие наборы данных. Я сомневаюсь, должен ли я использовать кривые ROC или кривые обучения, чтобы сравнить 2 классификатора. С одной стороны, кривые обучения полезны для определения размера набора обучающих данных, поскольку вы можете …

2
Является ли f-мера синонимом точности?
Я понимаю, что f-мера (основанная на точности и отзыве) - это оценка точности классификатора. Кроме того, f-мера предпочтительнее точности, когда у нас есть несбалансированный набор данных. У меня есть простой вопрос (который больше об использовании правильной терминологии, чем о технологии). У меня несбалансированный набор данных, и я использую f-меру в …

4
Интерпретация значения AIC
Типичные значения AIC, которые я видел для логистических моделей, исчисляются тысячами, по меньшей мере, сотнями. например, на http://www.r-bloggers.com/how-to-perform-a-logistic-regression-in-r/ AIC составляет 727,39 Хотя всегда говорят, что AIC следует использовать только для сравнения моделей, я хотел понять, что означает конкретное значение AIC. По формуле А яС= - 2 журнала( L ) + …

4
Расчет точности прогноза
Мы используем STL (R реализация) для прогнозирования данных временных рядов. Каждый день мы запускаем ежедневные прогнозы. Мы хотели бы сравнить прогнозные значения с реальными значениями и определить среднее отклонение. Например, мы запустили прогноз на завтра и получили прогнозные баллы, мы хотели бы сравнить эти прогнозные баллы с реальными данными, которые …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.