Есть несколько ответов, указывающих, что цифровой сигнал по сравнению с аналоговым является правильным. Но это не отвечает почему? Несколько упомянутых слоев перевода, это тоже верно, массовое аналого-цифровое преобразование может привести к потере точности, но вам придется измерить это, так как трудно увидеть различия невооруженным глазом. Дешевая конвертация и все ставки выключены.
Так почему же цифровой лучше аналогового?
Аналоговый сигнал RGB (например, VGA) использует амплитуду сигнала (от 0,7 Вольт до пика в случае VGA). Это, как и все сигналы, имеет шум, который, если он будет достаточно большим, приведет к неправильному переводу уровней.
Отражения в кабеле (несоответствия импеданса) на самом деле являются самым большим падением аналогового видеосигнала. Это вносит дополнительный шум и ухудшается с более длинными кабелями (или более дешевыми), более высокое разрешение видео также увеличивает отношение сигнал / шум. Интересно, что вы не сможете увидеть никакой разницы в сигнале 800x600, если кабель VGA не слишком длинный.
Как цифровой сигнал избежать этих ловушек? Ну для одного уровень больше не актуален. Кроме того, DVI-D / HDMI использует дифференциальный сигнал, а также исправление ошибок, чтобы гарантировать, что они и нули точно передаются правильно. К цифровому сигналу добавлено дополнительное кондиционирование, которое нецелесообразно добавлять к аналоговому видеосигналу.
Простите за мыльницу, ребята, но это факты.