Я учусь на курсе по разработке компьютерных систем, и мой профессор сказал нам, что в цифровых системах обычные напряжения, используемые для обозначения цифрового 0 и цифрового 1, менялись с годами.
По-видимому, еще в 80-х годах 5 В использовалось в качестве «высокого», а 1 В использовалось для обозначения «низкого». В настоящее время «максимум» составляет 0,75 В, а «минимум» составляет около 0,23 В. Он добавил, что в ближайшем будущем мы можем перейти к системе, где 0,4 В означает максимум, а 0,05 В - минимум.
Он утверждал, что эти значения становятся меньше, чтобы мы могли снизить энергопотребление. Если это так, то почему мы вообще стараемся установить «низкий уровень» на любое положительное напряжение? Почему бы нам просто не установить истинное напряжение 0 В (я думаю, нейтральное от линий электропередач)?