Без Numpy (ndarray.flatten
), вы можете использовать chain.from_iterable
, который является альтернативным конструктор itertools.chain
:
>>> list(chain.from_iterable([[1,2,3],[1,2],[1,4,5,6,7]]))
[1, 2, 3, 1, 2, 1, 4, 5, 6, 7]
также вы можете использовать reduce
в Python 2 и functools.reduce
в 3, что является более эффективным для коротких списков:
>>> reduce(lambda x,y :x+y ,[[1,2,3],[1,2],[1,4,5,6,7]])
[1, 2, 3, 1, 2, 1, 4, 5, 6, 7]
Или использовать список понимание:
[j for i in [[1,2,3],[1,2],[1,4,5,6,7]] for j in i]
тест:
:~$ python -m timeit "from itertools import chain;chain.from_iterable([[1,2,3],[1,2],[1,4,5,6,7]])"
1000000 loops, best of 3: 1.58 usec per loop
:~$ python -m timeit "reduce(lambda x,y :x+y ,[[1,2,3],[1,2],[1,4,5,6,7]])"
1000000 loops, best of 3: 0.791 usec per loop
:~$ python -m timeit "[j for i in [[1,2,3],[1,2],[1,4,5,6,7]] for j in i]"
1000000 loops, best of 3: 0.784 usec per loop
Ориентиром на @ ответ Уилла, который использовал sum
(его быстро на короткий список, но не для длинного списка):
:~$ python -m timeit "sum([[1,2,3],[4,5,6],[7,8,9]], [])"
1000000 loops, best of 3: 0.575 usec per loop
:~$ python -m timeit "sum([range(100),range(100)], [])"
100000 loops, best of 3: 2.27 usec per loop
:~$ python -m timeit "reduce(lambda x,y :x+y ,[range(100),range(100)])"
100000 loops, best of 3: 2.1 usec per loop
как 'sum ([[1,2,3], [4,5,6], [7,8,9]], [])' сравнивают с этими? – will
@will для коротких списков его быстрее, чем сокращение, но для более длинных списков его нет! – Kasramvd