Каковы некоторые основные примеры успешной дерандомизации или, по крайней мере, прогресса в демонстрации конкретных доказательств достижения цели (а не связи между случайностью и жесткостью)?
Единственный пример, который мне приходит в голову, - это тестирование AKS на детерминированность полиномиального времени (даже для этого была методология, предполагающая GRH). Итак, какие конкретные доказательства на примере мы имеем для дерандомизации (опять же, не связности твердости или оракула)?
Пожалуйста, оставляйте примеры только там, где было показано улучшение сложности времени от рандомизированного поли до детерминированного поли или чего-то, что очень близко для конкретных задач.
Ниже приведен комментарий, и я не знаю, насколько он поможет в этом вопросе.
У Шазель есть очень интригующее заявление в http://www.cs.princeton.edu/~chazelle/linernotes.html в разделе «Метод расхождения: случайность и сложность (издательство Cambridge University Press, 2000)».
«Для меня было бесконечным источником восхищения, что более глубокое понимание детерминированных вычислений должно требовать мастерства рандомизации. Я написал эту книгу, чтобы проиллюстрировать эту мощную связь. От минимальных связующих деревьев до линейного программирования и триангуляции Делоне, наиболее эффективные алгоритмы часто являются дерандомизацией вероятностных решений. Метод расхождений ставит в центр внимания один из самых плодотворных вопросов во всей информатике: если вы считаете, что вам нужны случайные биты, расскажите, пожалуйста, почему?