Не все ИИ работают на корреляцию, байесовские сети убеждений построены вокруг вероятности того, что А вызывает B.
Я работаю над системой оценки успеваемости учащихся по вопросам, основанным на их прошлых выступлениях.
Я не думаю, что вам нужна причина для этого. Прошлые показатели не влияют на текущие показатели. Ответ на ранний вопрос не вызывает ответа на более поздний вопрос.
Но с точки зрения простого построения системы для выбора вопросов, которые могут иметь соответствующий уровень сложности - имеет ли это различие какое-либо значение?
Нет, не для вашего примера. Я думаю, что корреляция (или даже простая экстраполяция) решит вашу проблему очень хорошо. Присвойте оценку сложности каждому из вопросов, а затем задайте вопросы учащимся на все более сложных уровнях (именно так работает большинство экзаменов), а затем, когда ученик начинает понимать их неправильно, вы можете свернуть трудности. Это алгоритм обратной связи, который похож на минимизацию ошибок, выполняемых на нейроне в многослойном персептроне. Нетривиальная часть входных пространств, подобная этой, решает, какой сложный вопрос!
Лучший пример причинно-следственной связи в ИИ:
Моя машина тормозит. Мой ускоритель на полу. Там не так много шума. На приборной панели есть огни. Какова вероятность того, что у меня кончилось топливо?
В этом случае из-за нехватки топлива автомобиль замедлился. Это именно та проблема, которую решают Bayesian Belief Networks.