Мы знаем (на данный момент около 40 лет, спасибо Адлеману, Беннету и Джиллу), что включение BPP P / poly и еще более сильное BPP / poly P / poly имеют место. «/ Poly» означает, что мы работаем неравномерно (отдельная схема для каждой входной длины ), в то время как P без этой «/ poly» означает, что у нас есть одна машина Тьюринга для всех возможных входных длин , даже больше, чем, скажем, = количество секунд до следующего «Большого взрыва».
Вопрос 1: Что нового может принести доказательство (или опровержение) BPP = P нашим знаниям после того, как мы узнаем BPP P / poly?
Под «новым» я подразумеваю любые действительно удивительные последствия, такие как развал / разделение других классов сложности. Сравните это с последствиями, которые дало бы доказательство / опровержение NP P / poly.
[ДОБАВЛЕНО 08.10.2017]: Одним из действительно удивительных последствий BPP P будет то, что, как показали Impagliazzo и Wigderson , все (!) Проблемы в E = DTIME будут иметь схемы размером . Спасибо Райану за отзыв об этом результате.
Вопрос 2: Почему мы не можем доказать BPP = P по аналогии с доказательством BPP / poly P / poly?
Одно «очевидное» препятствие - проблема конечных и бесконечных областей : логические схемы работают над конечными областями, тогда как машины Тьюринга работают над всем множеством из - строк любой длины. Итак, чтобы дерандомизировать вероятностные логические схемы, достаточно взять большинство независимых копий вероятностной схемы и применить неравенство Чернова вместе с объединенной границей. Конечно, для бесконечных доменов это простое правило большинства не будет работать.
Но является ли это (бесконечная область) настоящим «препятствием»? Используя результаты статистической теории обучения (измерение VC), мы уже можем доказать, что BPP / poly P / poly выполняется также для схем, работающих над бесконечными областями, таких как арифметические схемы (работающих над всеми действительными числами); см., например, эту статью Кукера в al. При использовании аналогичного подхода все, что нам нужно, это показать, что измерение виртуальных машин для машин с множественным временем Тьюринга не может быть слишком большим. Кто-нибудь видел какие-либо попытки сделать этот последний шаг?
ПРИМЕЧАНИЕ [добавлено 07.10.2017]: В контексте дерандомизации измерение VC класса функций определяется как максимальное число для которого существуют функции в такие как что для каждого существует точка с тогда и только тогда . Т.е. мы разбиваем не множества точек через функции, а скорее множества функций через точки. (Два результирующих определения измерения VC связаны, но в геометрической прогрессии.)
Результаты (известные как равномерная сходимость по вероятности ) подразумевают следующее: если для каждого входа случайно выбранная функция (при некотором распределении вероятностей на ) удовлетворяет для константы , тогда можно вычислить на всех входах как большинство некоторые (фиксированный) функции из . См., Например, следствие 2 в статье Хаусслера . [Для того, чтобы это произошло, на есть несколько мягких условий измеримости .] F ∈ F F Р г о б { е ( х ) = е ( х ) } ≥ 1 / 2 + с C > 0 F ( х ) м = O ( v ) F F
Например, если - множество всех многочленов вычисляемых арифметическими схемами размера , то все многочлены в имеют степень не более . Используя известные верхние границы для числа нулевых моделей многочленов (см., Например, эту статью ), можно показать, что размерность VC для равна . Это подразумевает включение BPP / poly P / poly для арифметических схем.f : R n → R ≤ s F D = 2 с F O ( n log D ) = O ( n s ) ⊆