Я часто имею дело с невероятно большими файлами журналов (> 3 ГБ). Я заметил, что производительность менее страшна с этими файлами. Часто я хочу перейти к середине файла, но когда я говорю меньше, чтобы перейти вперед на 15 миллионов строк, это занимает минуты ...
Проблема, которую я представляю, состоит в том, что меньше нужно сканировать файл на наличие символов \ n, но это занимает слишком много времени.
Есть ли способ заставить его просто стремиться к явному смещению? например, стремиться к байтовому смещению 1,5 миллиарда в файле. Эта операция должна быть на несколько порядков быстрее. Если меньше не дает такой возможности, есть ли другой инструмент, который делает?
perl -pi -e 's/\n//g;' <filename>