Область распределенных вычислений оказалась крайне неудачной в разработке единой математической теории для описания распределенных алгоритмов. Существует несколько «моделей» и структур распределенных вычислений, которые просто не совместимы друг с другом. Абсолютный взрыв различных временных свойств (асинхронность, синхронность, частичная синхронность), различных примитивов связи (передача сообщений по сравнению с общей памятью, широковещательная или одноадресная передача), модели множественных сбоев (аварийный останов, аварийное восстановление, пропуск отправки, византийский и т. Д.). на) оставил нам неразрешимое количество системных моделей, структур и методологий, что сравнение результатов относительной разрешимости и нижних границ для этих моделей и структур стало трудным, неразрешимым, а порой и невозможным.
Мой вопрос очень прост, почему это так? Что настолько принципиально отличается в распределенных вычислениях (от их последовательного аналога), что мы не смогли сопоставить исследование в единой теории распределенных вычислений? С последовательными вычислениями машины Тьюринга, Рекурсивные функции и Лямбда-исчисление все обрезаны, чтобы быть эквивалентными. Было ли это просто удачей или мы действительно проделали хорошую работу по инкапсуляции последовательных вычислений способом, который еще не был достигнут с распределенными вычислениями?
Другими словами, распределенные вычисления по своей природе не поддаются элегантной теории (и если да, то как и почему?) Или мы просто недостаточно умны, чтобы открыть такую теорию?
Единственная ссылка, которую я смог найти для решения этой проблемы: « Оценка двух десятилетий исследований теории распределенных вычислений » Фишера и Мерритта DOI: 10.1007 / s00446-003-0096-6
Любые ссылки или экспозиции будут действительно полезны.