Самый быстрый способ увеличить числовой массив numpy


80

Требования:

  • Мне нужно вырастить массив произвольно большого размера из данных.
  • Я могу угадать размер (примерно 100-200) без гарантии, что массив будет соответствовать каждый раз
  • Как только он вырастет до своего окончательного размера, мне нужно выполнить над ним числовые вычисления, поэтому я бы предпочел в конечном итоге перейти к двумерному массиву numpy.
  • Скорость имеет решающее значение. Например, для одного из 300 файлов метод update () вызывается 45 миллионов раз (занимает около 150 с), а метод finalize () вызывается 500 тыс. Раз (всего 106 с) ... всего 250 с. или так.

Вот мой код:

def __init__(self):
    self.data = []

def update(self, row):
    self.data.append(row)

def finalize(self):
    dx = np.array(self.data)

Другие вещи, которые я пробовал, включают следующий код ... но он медленнее.

def class A:
    def __init__(self):
        self.data = np.array([])

    def update(self, row):
        np.append(self.data, row)

    def finalize(self):
        dx = np.reshape(self.data, size=(self.data.shape[0]/5, 5))

Вот схема того, как это называется:

for i in range(500000):
    ax = A()
    for j in range(200):
         ax.update([1,2,3,4,5])
    ax.finalize()
    # some processing on ax

2
Должен ли он быть массивом numpy, прежде чем он будет завершен? Если нет, используйте список списков, а затем конвертируйте, когда закончите.
Эндрю Джаффе

1
@AndrewJaffe Соответствуют ли списки списков эффективности памяти numpy?
AturSams

Ответы:


96

Я попробовал несколько разных вещей со сроками.

import numpy as np
  1. Метод, который вы упомянули как медленный: (32,094 секунды)

    class A:
    
        def __init__(self):
            self.data = np.array([])
    
        def update(self, row):
            self.data = np.append(self.data, row)
    
        def finalize(self):
            return np.reshape(self.data, newshape=(self.data.shape[0]/5, 5))
    
  2. Обычный список Python: (0,308 секунды)

    class B:
    
        def __init__(self):
            self.data = []
    
        def update(self, row):
            for r in row:
                self.data.append(r)
    
        def finalize(self):
            return np.reshape(self.data, newshape=(len(self.data)/5, 5))
    
  3. Попытка реализовать Arraylist в numpy: (0,362 секунды)

    class C:
    
        def __init__(self):
            self.data = np.zeros((100,))
            self.capacity = 100
            self.size = 0
    
        def update(self, row):
            for r in row:
                self.add(r)
    
        def add(self, x):
            if self.size == self.capacity:
                self.capacity *= 4
                newdata = np.zeros((self.capacity,))
                newdata[:self.size] = self.data
                self.data = newdata
    
            self.data[self.size] = x
            self.size += 1
    
        def finalize(self):
            data = self.data[:self.size]
            return np.reshape(data, newshape=(len(data)/5, 5))
    

И вот как я это рассчитал:

x = C()
for i in xrange(100000):
    x.update([i])

Так что, похоже, обычные старые списки Python довольно хороши;)


1
Я думаю, что сравнение будет более ясным с 60 миллионами обновлений и 500 тысячами завершающих звонков. Похоже, в этом примере вы не вызывали finalize.
fodon

1
@fodon Я действительно вызвал finalize - один раз за прогон (так что, думаю, не сильно повлиял). Но это заставляет меня думать, что, может быть, я неправильно понял, как растут ваши данные: если вы получите 60 миллионов обновлений, я думал, это предоставит не менее 60 миллионов данных для следующей финализации?
Оуэн,

@Owen 60M и 500K означают 60 миллионов и 500 тысяч звонков на updateи finalizeсоответственно. См. Мой пересмотренный тайминг, который проверяет соотношение 100: 1 updateкfinalize
Прашант Кумар

Я обновил вопрос с помощью короткого сценария (который может быть синтаксически неверным), чтобы дать представление о том, как это работает.
fodon

3
Обратите внимание, что третий вариант лучше, когда у вас заканчивается память. Второй вариант требует много памяти. Причина в том, что списки Python - это массивы ссылок на значения, тогда как массивы NumPy - это фактические массивы значений.
Fabianius

20

np.append () каждый раз копирует все данные в массив, но список увеличивает емкость в раз (1,125). список работает быстро, но используется больше памяти, чем массив. Вы можете использовать модуль массива стандартной библиотеки python, если вам небезразлична память.

Вот обсуждение этой темы:

Как создать динамический массив


2
есть ли способ изменить фактор роста списка?
fodon

1
np.append (), занимающая время, экспоненциально увеличивается с количеством элементов.
Часы ZHONG

1
^ линейный (т.е. общее накопленное время квадратично), а не экспоненциальный.
user1111929

15

Используя объявления классов в сообщении Оуэна, вот пересмотренное время с некоторым эффектом финализации.

Короче говоря, я считаю, что класс C обеспечивает реализацию, которая более чем в 60 раз быстрее, чем метод в исходном сообщении. (извинения за стену текста)

Файл, который я использовал:

#!/usr/bin/python
import cProfile
import numpy as np

# ... class declarations here ...

def test_class(f):
    x = f()
    for i in xrange(100000):
        x.update([i])
    for i in xrange(1000):
        x.finalize()

for x in 'ABC':
    cProfile.run('test_class(%s)' % x)

Теперь итоговые тайминги:

А:

     903005 function calls in 16.049 seconds

Ordered by: standard name

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
     1    0.000    0.000   16.049   16.049 <string>:1(<module>)
100000    0.139    0.000    1.888    0.000 fromnumeric.py:1043(ravel)
  1000    0.001    0.000    0.003    0.000 fromnumeric.py:107(reshape)
100000    0.322    0.000   14.424    0.000 function_base.py:3466(append)
100000    0.102    0.000    1.623    0.000 numeric.py:216(asarray)
100000    0.121    0.000    0.298    0.000 numeric.py:286(asanyarray)
  1000    0.002    0.000    0.004    0.000 test.py:12(finalize)
     1    0.146    0.146   16.049   16.049 test.py:50(test_class)
     1    0.000    0.000    0.000    0.000 test.py:6(__init__)
100000    1.475    0.000   15.899    0.000 test.py:9(update)
     1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}
100000    0.126    0.000    0.126    0.000 {method 'ravel' of 'numpy.ndarray' objects}
  1000    0.002    0.000    0.002    0.000 {method 'reshape' of 'numpy.ndarray' objects}
200001    1.698    0.000    1.698    0.000 {numpy.core.multiarray.array}
100000   11.915    0.000   11.915    0.000 {numpy.core.multiarray.concatenate}

B:

     208004 function calls in 16.885 seconds

Ordered by: standard name

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
     1    0.001    0.001   16.885   16.885 <string>:1(<module>)
  1000    0.025    0.000   16.508    0.017 fromnumeric.py:107(reshape)
  1000    0.013    0.000   16.483    0.016 fromnumeric.py:32(_wrapit)
  1000    0.007    0.000   16.445    0.016 numeric.py:216(asarray)
     1    0.000    0.000    0.000    0.000 test.py:16(__init__)
100000    0.068    0.000    0.080    0.000 test.py:19(update)
  1000    0.012    0.000   16.520    0.017 test.py:23(finalize)
     1    0.284    0.284   16.883   16.883 test.py:50(test_class)
  1000    0.005    0.000    0.005    0.000 {getattr}
  1000    0.001    0.000    0.001    0.000 {len}
100000    0.012    0.000    0.012    0.000 {method 'append' of 'list' objects}
     1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}
  1000    0.020    0.000    0.020    0.000 {method 'reshape' of 'numpy.ndarray' objects}
  1000   16.438    0.016   16.438    0.016 {numpy.core.multiarray.array}

C:

     204010 function calls in 0.244 seconds

Ordered by: standard name

ncalls  tottime  percall  cumtime  percall filename:lineno(function)
     1    0.000    0.000    0.244    0.244 <string>:1(<module>)
  1000    0.001    0.000    0.003    0.000 fromnumeric.py:107(reshape)
     1    0.000    0.000    0.000    0.000 test.py:27(__init__)
100000    0.082    0.000    0.170    0.000 test.py:32(update)
100000    0.087    0.000    0.088    0.000 test.py:36(add)
  1000    0.002    0.000    0.005    0.000 test.py:46(finalize)
     1    0.068    0.068    0.243    0.243 test.py:50(test_class)
  1000    0.000    0.000    0.000    0.000 {len}
     1    0.000    0.000    0.000    0.000 {method 'disable' of '_lsprof.Profiler' objects}
  1000    0.002    0.000    0.002    0.000 {method 'reshape' of 'numpy.ndarray' objects}
     6    0.001    0.000    0.001    0.000 {numpy.core.multiarray.zeros}

Класс A уничтожается обновлениями, класс B уничтожается финализацией. Класс C устойчив перед ними обоими.


Обновление выполняется несколько раз, затем один раз вызывается finalize. Весь этот процесс выполняется m раз (в противном случае нет данных для завершения). Кроме того, при сравнении с исходным сообщением ... вы имеете в виду первое (преобразование array.append + numpy) или (numpy.append + reshape)?
fodon

1
cProfile. Это первый импорт и последняя строка, вызванная в моем фрагменте кода.
Прашант Кумар

5

существует большая разница в производительности функции, которую вы используете для завершения. Рассмотрим следующий код:

N=100000
nruns=5

a=[]
for i in range(N):
    a.append(np.zeros(1000))

print "start"

b=[]
for i in range(nruns):
    s=time()
    c=np.vstack(a)
    b.append((time()-s))
print "Timing version vstack ",np.mean(b)

b=[]
for i in range(nruns):
    s=time()
    c1=np.reshape(a,(N,1000))
    b.append((time()-s))

print "Timing version reshape ",np.mean(b)

b=[]
for i in range(nruns):
    s=time()
    c2=np.concatenate(a,axis=0).reshape(-1,1000)
    b.append((time()-s))

print "Timing version concatenate ",np.mean(b)

print c.shape,c2.shape
assert (c==c2).all()
assert (c==c1).all()

Использование конкатенации кажется в два раза быстрее, чем первая версия, и более чем в 10 раз быстрее, чем вторая версия.

Timing version vstack  1.5774928093
Timing version reshape  9.67419199944
Timing version concatenate  0.669512557983

1

Если вы хотите повысить производительность операций со списком, обратите внимание на библиотеку блистов. Это оптимизированная реализация списка Python и других структур.

Я еще не тестировал его, но результаты на их странице кажутся многообещающими.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.