У нас будет работающий компьютер, который на пиковой производительности должен будет обрабатывать 50 («головки записи») х 75 ГБ данных в час. Это максимальная скорость записи ~ 1100 МБ / с. Чтобы получить это от машины, требуется две линии по 10 ГБ. У меня вопрос, какая технология server + может обрабатывать / хранить такой поток данных?
В настоящее время для хранения данных мы работаем с ZFS, хотя скорость записи никогда не возникала. (мы даже не близки к этим скоростям) Будет ли ZFS (zfs на linux) вариантом? Нам также необходимо хранить большое количество данных, «Руководство по ИТ» предлагает всего около 50-75 ТБ. Так что, вероятно, не все SSD, если мы не хотим предложить нашего первенца.
Некоторые дополнения, основанные на превосходных ответах:
- максимум составляет 50x75 ГБ / час во время пика, который составляет менее 24 часов (наиболее вероятно, <6 часов)
- Мы не ожидаем, что это произойдет в ближайшее время, скорее всего, мы будем работать 5-10x75GB / час
- это пре-альфа-машина, однако требования должны быть соблюдены (хотя в игре много знаков вопроса)
- мы бы использовали NFS как соединение с машины к серверу
- макет: генерирующая машина -> хранилище (это) -> (безопасный рейд 6) -> вычислительный кластер
- так что скорость чтения не важна , но было бы неплохо использовать ее из вычислительного кластера (но это совершенно необязательно)
- скорее всего, это будут большие файлы данных (не много маленьких)