Существует стандартная теория приближений, в которой коэффициент приближения равен (для задач сзадачами),- значение, возвращаемое некоторым алгоритмома- оптимальное значение. И еще одна теории, что издифференциального приближениягде отношение приближения , - наихудшее значение допустимого решения для данного случая. В Авторы этой теории утверждают , что она имеет определенные преимущества по сравнению с классическим. Например:
- он дает тот же коэффициент аппроксимации для таких задач, как минимальное покрытие вершин и максимальный независимый набор, которые, как известно, являются просто различными реализациями одной и той же задачи;
- это дает одинаковое соотношение для максимальной и минимальной версий одной и той же проблемы. В то же время мы знаем, что в стандартной теории MIN TSP и MAX TSP имеют очень разные соотношения.
- Он измеряет расстояние не только до оптимального, но и до пессимума . Таким образом, в случае стандартного приближения Vertex Cover говорит, что является лучшей верхней границей. Но важно - это максимальное соотношение между пессимумом и оптимумом. Таким образом, такой алгоритм гарантирует вывод решения с наихудшим значением.
Мой аргумент "за": в асимптотическом анализе мы не учитываем константы и термины низкого порядка (здесь я вспомнил цитату Ави Виджерсона: "Мы успешны, потому что мы используем правильный уровень абстракции"), и это уровень абстракции для сравнения использования ресурсов алгоритмом. Но когда мы изучаем приближение, мы почему-то вводим разницу в тех местах, где мы можем этого избежать.
Мой вопрос
Почему теория дифференциального приближения так слабо изучена. Или аргументы недостаточно сильны?