Я смотрел презентацию специалиста по ML из крупного ритейлера, где они разработали модель для прогнозирования событий на складе.
Давайте на минутку предположим, что со временем их модель становится очень точной, не будет ли это как-то «самоубийственно»? То есть, если модель действительно работает хорошо, то они смогут предвидеть события, отсутствующие на складе, и избегать их, в конечном итоге достигнув точки, когда у них будет мало или вообще нет событий со склада. Но тогда, если это так, не хватит исторических данных, чтобы запустить их модель, или их модель будет сорвана, потому что те же причинные факторы, которые использовались для обозначения события истощения запасов, больше не делают этого.
Каковы стратегии борьбы с таким сценарием?
Кроме того, можно представить себе противоположную ситуацию: например, система рекомендаций может стать «самореализующимся пророчеством» с увеличением продаж пар элементов, обусловленных выходом системы рекомендаций, даже если эти два элемента на самом деле не таковы. Связанный.
Мне кажется, что оба являются результатом своего рода петли обратной связи, которая происходит между выводом предиктора и действиями, которые предпринимаются на его основе. Как можно справиться с такими ситуациями?