Ниже предположим, что мы работаем с машиной Тьюринга с бесконечной лентой.
Объясняя кому-то понятие временной сложности и почему оно измеряется относительно входного размера экземпляра, я наткнулся на следующее утверждение:
[..] Например, естественно, что вам нужно больше шагов для умножения двух целых чисел на 100000 бит, чем, скажем, умножение двух целых чисел на 3 бита.
Претензия убедительна, но как-то махает рукой. Во всех алгоритмах, с которыми я сталкивался, чем больше размер ввода, тем больше шагов вам нужно. В более точных словах, сложность времени является монотонно возрастающей функцией размера ввода.
Это тот случай, когда сложность времени всегда увеличивается в зависимости от размера ввода? Если так, то почему? Есть ли доказательства этому помимо махнув рукой?