Я немного коснусь сетевых аспектов: у Google есть точка присутствия (PoP) в 73 уникальных центрах обработки данных по всему миру (не считая их собственных). Они являются членами 69 уникальных интернет-бирж . Google находится в большем количестве центров обработки данных и точек интернет-обмена, чем другие сети, перечисленные в peeringdb.
Общая пропускная способность интернет-обмена Google составляет> 1,5 Тбит / с, и 1,5 Тбит / с зарезервированы для сетей с трафиком> 100 Мбит / с с Google, но меньше, чем я предполагаю, около 2-3 Гбит / с. После того, как у вас есть «достаточный объем» , вы перешли на частный пиринг (PNI).
В дополнение к пирингу в Internet Exchange и пирингу в частном порядке (с AS15169) YouTube также управляет транзитной сетью: AS43515 и другой сетью, которая, как я предполагаю, предназначена для платного пиринга / переполнения, AS36040. Google также использует серверы Google Global Cache , чтобы интернет-провайдеры могли развернуть их локально в своей сети. (Данные из peeringdb, bgp.he.net).
Исходя из моего опыта, я считаю, что YouTube использует гораздо больше, чем просто геолокацию IP или Anycast, чтобы выбрать место для показа видео.
Google управляет огромной глобальной магистральной сетью, у них есть темное волокно , они финансируют подводные кабели . Объем трафика, генерируемый YouTube, огромен! Я предполагаю, что у YouTube есть пиковый объем трафика> 12Tbps. Google представляет не менее 7% (и, вероятно,> 10%) всего междоменного интернет-трафика.
Таким образом, чтобы действительно ответить на ваш вопрос, с точки зрения сети, чтобы масштабироваться как YouTube, вы должны сделать огромные инвестиции в вашу сеть - от оптоволокна в земле до оборудования WDM и маршрутизаторов. Вы должны получить контент и сеть как можно ближе к своим пользователям. Обычно это означает пиринг, IX, и, возможно, немного транзита. Вы должны быть в состоянии разумно сообщить пользователям, откуда взять контент, чтобы трафик был равномерно распределенным и дешевым. И, конечно же, вам нужна огромная серверная инфраструктура для хранения, обработки, преобразования и доставки 4 миллиардов просмотров в день!
Если вам интересно узнать о серверной части, я написал сообщение в блоге, в котором разбиты некоторые недавно выпущенные образы центров обработки данных.