Прошу прощения, это немного "мягкий" вопрос.
Теория информации не имеет понятия вычислительной сложности. Например, экземпляр SAT или экземпляр SAT плюс бит, указывающий на выполнимость, несут одинаковое количество информации.
Есть ли способ формализовать понятие «полиномиально узнаваемый»?
Такая структура могла бы определить, например, понятие расхождения полиномиального KL между случайной величиной X относительно Y как число битов, необходимых для вычисления X за полиномиальное время, заданное Y.
Аналогично, энтропия случайной величины X может быть определена как количество битов, необходимых для кодирования X таким образом, который может быть декодирован за полиномиальное время.
Было ли изучено такое обобщение? Можно ли сделать это последовательным?