Работая над совершенно другим сценарием, я узнал, что с 29 миллионами строк текста использование seek()
и работа с данными побайтно часто быстрее, чем построчно. Та же идея применяется в приведенном ниже сценарии: мы открываем файл, и вместо того, чтобы циклически открывать и закрывать файл (что может привести к дополнительным расходам, даже если это не важно), мы сохраняем файл открытым и возвращаемся к началу.
#!/usr/bin/env python3
from __future__ import print_function
import sys,os
def error_out(string):
sys.stderr.write(string+"\n")
sys.exit(1)
def read_bytewise(fp):
data = fp.read(1024)
print(data.decode(),end="",flush=True)
while data:
data = fp.read(1024)
print(data.decode(),end="",flush=True)
#fp.seek(0,1)
def main():
howmany = int(sys.argv[1]) + 1
if not os.path.isfile(sys.argv[2]):
error_out("Needs a valid file")
fp = open(sys.argv[2],'rb')
for i in range(1,howmany):
#print(i)
fp.seek(0)
read_bytewise(fp)
fp.close()
if __name__ == '__main__': main()
Сам скрипт довольно прост в использовании:
./repeat_text.py <INT> <TEXT.txt>
Для 3-строчного текстового файла и 1000 итераций все идет хорошо, около 0,1 секунды:
$ /usr/bin/time ./repeat_text.py 1000 input.txt > /dev/null
0.10user 0.00system 0:00.23elapsed 45%CPU (0avgtext+0avgdata 9172maxresident)k
0inputs+0outputs (0major+1033minor)pagefaults 0swaps
Сам сценарий не самый элегантный, вероятно, может быть сокращен, но выполняет свою работу. Конечно, я добавил кое-что еще, например, error_out()
функцию, которая не нужна - это всего лишь небольшое удобное касание.