Я должен создать и заполнить огромные (, например, 96 Go, 72000 строк * 72000 столбцов) массив с поплавками в каждом случае, который исходит из математических формул. Массив будет вычисляться после.Самый быстрый способ создания и заполнения огромного двумерного массива?
import itertools, operator, time, copy, os, sys
import numpy
from multiprocessing import Pool
def f2(x): # more complex mathematical formulas that change according to values in *i* and *x*
temp=[]
for i in combine:
temp.append(0.2*x[1]*i[1]/64.23)
return temp
def combinations_with_replacement_counts(n, r): #provide all combinations of r balls in n boxes
size = n + r - 1
for indices in itertools.combinations(range(size), n-1):
starts = [0] + [index+1 for index in indices]
stops = indices + (size,)
yield tuple(map(operator.sub, stops, starts))
global combine
combine = list(combinations_with_replacement_counts(3, 60)) #here putted 60 but need 350 instead
print len(combine)
if __name__ == '__main__':
t1=time.time()
pool = Pool() # start worker processes
results = [pool.apply_async(f2, (x,)) for x in combine]
roots = [r.get() for r in results]
print roots [0:3]
pool.close()
pool.join()
print time.time()-t1
- Какой самый быстрый способ создать и заполнить такой огромный Numpy массив? Заполнение списков, затем агрегирование, а затем преобразование в массив numpy?
- Можем ли мы распараллеливать вычисления, зная, что случаи/столбцы/строки для 2d-массива независимы для ускорения заполнения массива? Подсказки/маршруты для оптимизации таких вычислений с использованием Multiprocessing?
Должен ли он быть в режиме реального времени или вы можете вычислить его офф-лайн и использовать, например мариновать, чтобы читать? –
Я предпочитаю быть в режиме реального времени, но если травление быстрее, я не против ... надеюсь, что я хорошо понял ваш вопрос? – sol