Дано:Архитектура DataPipline Best Practice
Somekind импорта данных внешнего источника. Данные можно читать в кусках определенного размера. Например, 10 предметов одновременно. Для примеров писем.
Теперь каждый кусок должен пройти несколько шагов, которые преобразуют данные, фильтруют элементы и т. Д.
Нет никакой связи между кусками или деталями кусков. Кроме того, порядок обработки не важен
Вопрос
Сейчас я думаю о том, какая структура будет правильным, если я делаю это с Акки, чтобы иметь лучший распараллеливания и производительность.
1.) Я бы скорее создал всех актеров как цепь детей. Так что у importActor есть ребенок, который является первым шагом. и на первом этапе второй шаг - ребенок и сын.
Или, скорее всего, есть один ImportActor, который имеет все шаги и вызывает один за другим?
2.) Теперь один актер может теперь обрабатывать только одно сообщение. Для Parallize процесса импорта я думаю об использовании механизма PipeTo. Это хорошая идея? есть ли лучшие варианты?
3.) Я бы создал для каждого фрагмента актера типа «Import_ Chunk1 _Actor», или я бы нажал все сообщения на единственный «ImportActor»?
Большое спасибо за ваш ответ. Я думаю, у меня теперь есть лучшее чувство этого. Я предположил, что есть один стандартный способ сделать это и что я контролирую часть. Но похоже, что я должен более подробно рассмотреть детализированные процессы, чтобы объединить эти части. –