Этот вопрос похож на более общий вопрос о том, какова правильная теоретическая модель компьютера для разработки алгоритма и структур данных.
Здесь я задаю конкретный вопрос о современных высокопроизводительных компьютерах (например, тех, которые перечислены в списке 500 лучших ) или даже о предстоящие суперкомпьютеры.
Учитывая, что эти компьютеры обычно работают с огромными наборами данных (кажется, что некоторые люди используют такие машины в основном потому, что у них огромная объединенная основная память) аспекты модели ввода-вывода (представленной Аггарвалем и Виттером в 1988 году ) и ее параллельной версии , PEM ( Arge, Goodrich, Nelson и Sitchinava в 2008 году ) должны присутствовать. С другой стороны, должно быть что-то в связи, в частности, наказание сверхмалых пакетов всем остальным вычислительным узлам.
Как вы можете себе представить, я не боюсь, что у меня заканчиваются идеи при создании новой модели, но меня немного беспокоит, что я мог бы пропустить предыдущие попытки сделать это, в частности, потому что у меня сложилось впечатление, что годы 1980- В 1995 или около того было много таких попыток моделирования (таких как BSP или мостовые модели), которые, похоже, не получили широкого распространения.
На какие модели стоит присмотреться?