Я предполагаю, что ваш вопрос связан с наблюдением, что ввод-вывод приводит к значительным накладным расходам во всем анализе. В этом случае вы можете попытаться перекрыть ввод-вывод с вычислением.
Успешный подход зависит от того, как вы получаете доступ к данным, и от вычислений, которые вы выполняете для этих данных. Если вы можете определить шаблон или доступ к различным областям данных известен заранее, вы можете попытаться предварительно выбрать «следующие фрагменты» данных в фоновом режиме при обработке «текущих фрагментов».
В качестве простого примера, если вы просматриваете файл один раз и обрабатываете каждую строку или набор строк, вы можете разделить поток на куски строк (или МБ). Затем на каждой итерации блоков вы можете загрузить блок i + 1 во время обработки фрагмента i.
Ваша ситуация может быть более сложной и требует более сложных решений. В любом случае, идея состоит в том, чтобы выполнить ввод / вывод в фоновом режиме, пока у процессора есть некоторые данные для работы. Если вы дадите более подробную информацию о вашей конкретной проблеме, возможно, мы сможем глубже изучить ее;)
---- Расширенная версия после предоставления более подробной информации ----
Я не уверен, что понимаю нотацию, но, как вы сказали, идея - это общедоступное взаимодействие. Вы также упоминаете, что данные могут помещаться в оперативной памяти. Затем я начну с измерения времени загрузки всех данных и времени выполнения вычислений. Сейчас,
если процент ввода / вывода низкий (низкий, так как у вас нет никакого дела до издержек, независимо от того, что это: 0,5%, 2%, 5%, ...), тогда просто используйте простой подход: загрузка данных сразу и вычисляй. Вы сэкономите время для более интересных аспектов вашего исследования.
если вы не можете позволить себе накладные расходы, вы можете посмотреть, что предложил Педро. Имейте в виду, что упомянул Арон Ахмадиа, и протестируйте его, прежде чем приступить к полной реализации.
если предыдущие не являются удовлетворительными, я бы пошел на некоторую неосновную реализацию [1]. Поскольку кажется, что вы выполняете вычислений для данных, есть надежда :) Некоторый псевдокод (при условии, что результаты вашего анализа помещаются в ОЗУ):N2N
загрузить chunk1 и chunk2
для кусков я = 1 до п
асинхронная загрузка чанка i + 1
для кусков в j = i + 1 к n
асинхронная загрузка фрагмента j + 1
вычислить с чанками i, j (* для первой итерации, это предварительно загруженные чанки 1 и 2 *)
Примечание: это быстрый и грязный псевдокод, необходимо настроить индексы.
Для реализации этого обычно используют так называемую двойную буферизацию . Грубо говоря: разделить память на две рабочие области; в то время как данные загружаются в фоновом режиме в рабочую область 1, процессор выполняет вычисления с данными в рабочей области 2. На каждой итерации меняйте роль.
Извините, я не могу придумать хорошую ссылку прямо сейчас.
[1] Внеядерный алгоритм включает в себя некоторый механизм для (эффективной) обработки данных, находящихся на диске. Они называются вне ядра, а не внутри ядра («в оперативной памяти»).
mmap
основного кода. Многие современные операционные системы дают аналогичную производительность между обычнымиread
с меньшими сложностями. (Кроме того, да, mmap в Python предоставляет переносимый интерфейс для карт памяти Windows и UNIX).