У меня есть таблица с 8 столбцами и ~ 16,7 миллионов записей. Мне нужно запустить набор уравнений if-else для столбцов. Я написал скрипт с использованием модуля UpdateCursor, но после нескольких миллионов записей ему не хватает памяти. Мне было интересно, есть ли лучший способ обработать эти 16,7 миллиона записей.
import arcpy
arcpy.TableToTable_conversion("combine_2013", "D:/mosaic.gdb", "combo_table")
c_table = "D:/mosaic.gdb/combo_table"
fields = ['dev_agg', 'herb_agg','forest_agg','wat_agg', 'cate_2']
start_time = time.time()
print "Script Started"
with arcpy.da.UpdateCursor(c_table, fields) as cursor:
for row in cursor:
# row's 0,1,2,3,4 = dev, herb, forest, water, category
#classficiation water = 1; herb = 2; dev = 3; forest = 4
if (row[3] >= 0 and row[3] > row[2]):
row[4] = 1
elif (row[2] >= 0 and row[2] > row[3]):
row[4] = 4
elif (row[1] > 180):
row[4] = 2
elif (row[0] > 1):
row[4] = 3
cursor.updateRow(row)
end_time = time.time() - start_time
print "Script Complete - " + str(end_time) + " seconds"
ОБНОВЛЕНИЕ № 1
Я запустил тот же сценарий на компьютере с 40 ГБ ОЗУ (исходный компьютер имел только 12 ГБ ОЗУ). Успешно завершено через ~ 16 часов. Я чувствую, что 16 часов - это слишком долго, но я никогда не работал с таким большим набором данных, поэтому не знаю, чего ожидать. Единственное новое дополнение к этому скрипту arcpy.env.parallelProcessingFactor = "100%"
. Я пробую два предложенных метода (1) сделать миллион записей в пакетном режиме и (2) использовать SearchCursor и записать результаты в csv. Я сообщу о прогрессе в ближайшее время.
ОБНОВЛЕНИЕ № 2
Обновление SearchCursor и CSV сработало великолепно! У меня нет точного времени выполнения, я обновлю сообщение, когда завтра нахожусь в офисе, но я бы сказал, что приблизительное время выполнения составляет ~ 5-6 минут, что довольно впечатляет. Я не ожидал этого. Я делюсь своим неполированным кодом, любые комментарии и улучшения приветствуются:
import arcpy, csv, time
from arcpy import env
arcpy.env.parallelProcessingFactor = "100%"
arcpy.TableToTable_conversion("D:/mosaic.gdb/combine_2013", "D:/mosaic.gdb", "combo_table")
arcpy.AddField_management("D:/mosaic.gdb/combo_table","category","SHORT")
# Table
c_table = "D:/mosaic.gdb/combo_table"
fields = ['wat_agg', 'dev_agg', 'herb_agg','forest_agg','category', 'OBJECTID']
# CSV
c_csv = open("D:/combine.csv", "w")
c_writer = csv.writer(c_csv, delimiter= ';',lineterminator='\n')
c_writer.writerow (['OID', 'CATEGORY'])
c_reader = csv.reader(c_csv)
start_time = time.time()
with arcpy.da.SearchCursor(c_table, fields) as cursor:
for row in cursor:
#skip file headers
if c_reader.line_num == 1:
continue
# row's 0,1,2,3,4,5 = water, dev, herb, forest, category, oid
#classficiation water = 1; dev = 2; herb = 3; ; forest = 4
if (row[0] >= 0 and row[0] > row[3]):
c_writer.writerow([row[5], 1])
elif (row[1] > 1):
c_writer.writerow([row[5], 2])
elif (row[2] > 180):
c_writer.writerow([row[5], 3])
elif (row[3] >= 0 and row[3] > row[0]):
c_writer.writerow([row[5], 4])
c_csv.close()
end_time = time.time() - start_time
print str(end_time) + " - Seconds"
ОБНОВЛЕНИЕ № 3 Окончательное обновление. Общее время выполнения сценария составляет ~ 199,6 секунд / 3,2 минуты.