Каков наилучший способ обмена огромным количеством данных между процессами в python. Я работаю над алгоритмами обработки изображений, и я хотел бы отправлять кадры изображений между процессами.Python interprocess communication, огромные данные
0
A
ответ
1
Для межпроцессного взаимодействия между процессами Python вы должны использовать протокол связи асинхронного сообщения.
Python имеет отличную поддержку для различных систем, реализующих это как ZeroMQ и RabbitMQ.
Или вы можете проверить listener and client объекты библиотеки multiprocessing.
Смежные вопросы
- 1. Python Daemon/Interprocess Communication
- 2. Interprocess Communication Python
- 3. Interprocess communication
- 4. Interprocess Communication на Heroku
- 5. C - execvp() interprocess communication
- 6. Interprocess Communication в C++
- 7. Interprocess communication in F #
- 8. Interprocess Communication CUDA
- 9. InterProcess Communication and BroadCasting
- 10. Interprocess communication в .NET
- 11. Java Interprocess Communication
- 12. Snoop interprocess communication
- 13. Interprocess Communication в Java
- 14. Interprocess Communication/Broadcast
- 15. Interprocess Communication через файл
- 16. Interprocess communication on windows
- 17. interprocess communication in linux design
- 18. InterProcess Communication Factory (Design Advice)
- 19. Interprocess communication: один сервер и несколько клиентов
- 20. C# interprocess communication в том же поле
- 21. Interprocess communication from SQL Server Project
- 22. Interprocess Communication между Excel & C# Application?
- 23. Interprocess communication with Lua and C#
- 24. Interprocess communication with Matlab on Windows
- 25. Interprocess Communication with pipe and file
- 26. Interprocess communication using pipe in Linux
- 27. Interprocess Communication over Network в C++
- 28. Ошибка памяти Python - огромные входные данные Sklearn?
- 29. C/UNIX Interprocess communication, отправляющий строку с трубкой
- 30. .Net для Java .Net Interprocess Communication с использованием Java
У меня был подобный вопрос некоторое время назад: http://stackoverflow.com/questions/20971191/sharing-state-between-forked-worker-processes-in-a-high-performance-environment. К сожалению, я не нашел удовлетворительного решения. Я закончил работать с всем кодом в одном процессе. Это не было проблемой, потому что я мог одновременно запускать несколько экспериментов с разными настройками параметров. – mbatchkarov
Может быть, использовать 'shm_open'? Казалось бы, более эффективно использовать разделяемую память, а не перемещать огромные объемы данных без необходимости в качестве сообщений. –