Симплексный алгоритм часто трактуется либо в реальной арифметике, либо в дискретном мире с точными вычислениями. Однако, это, кажется, чаще всего реализуется с помощью арифметики с плавающей точкой.
Это приводит к вопросу, следует ли рассматривать симплексный алгоритм как числовой алгоритм, в частности, как ошибки округления влияют на вычисления. Меня не интересуют практические реализации, а скорее теоретические основы.
Вам известно о каких-либо исследованиях по этому вопросу?