Может ли кто-нибудь дать указания о том, как настроить tenorflow для работы на многих процессорах по сети? Все примеры, которые я нашел до сих пор, в лучшем случае используют только один локальный ящик и multi-gpus. Я обнаружил, что могу передать список целей в session_opts, но я не уверен, как настроить tenorflow на каждом поле для прослушивания сетевых узлов/задач. Любой пример будет очень благодарен!Настройка Tensorflow для распределенных вычислений
ответ
Версия с открытым исходным кодом (в настоящее время 0,6) TensorFlow поддерживает только однопроцессное выполнение: в частности, единственной допустимой целью в tensorflow::SessionOptions
является пустая строка, что означает «текущий процесс».
TensorFlow whitepaper описывает структуру распределенной реализации (см. Рисунок 3), которую мы используем внутри Google. Основная идея заключается в том, что интерфейс сеанса может быть реализован с использованием RPC для ведущего ; и мастер может разбивать вычисления на множество устройств в нескольких процессах , которые также обмениваются данными с использованием RPC. Увы, текущая версия сильно зависит от встроенных технологий Google (например, Borg), поэтому остается много работы, чтобы подготовить ее к внешнему потреблению. В настоящее время мы работаем над этим, и вы можете следить за ходом работы на this GitHub issue.
EDIT 26.02.2016: Сегодня мы выпустили initial version of the distributed runtime в GitHub. Он поддерживает несколько машин и несколько графических процессоров.
- 1. Ruby-библиотека для распределенных вычислений?
- 2. распределенных/параллельных вычислений
- 3. Использование docker для запуска распределенных вычислений
- 4. Задачи/темы для открытых распределенных вычислений?
- 5. Java 8 MapReduce для распределенных вычислений
- 6. Кортеж пространства распределенных вычислений парадигма для Erlang
- 7. Как создать систему для распределенных вычислений?
- 8. Кэширование вычислений в TensorFlow
- 9. Попытка использования grid-вычислений или распределенных вычислений в C#
- 10. С чего начать с распределенных вычислений?
- 11. Рамка для распределенных вычислений для .Net/Mono, которая поддерживает сохранение распределенных задач
- 12. Настройка TensorFlow
- 13. Рамка/инструмент Java для простой задачи распределенных вычислений
- 14. Формат Hazelcast-in-memory для распределенных вычислений (статический анализ)
- 15. Пример использования моноида для распределенных вычислений с искрой
- 16. Настройка Tensorflow использовать
- 17. Настройка TensorFlow в окне
- 18. Синхронных противы асинхронных вычислений в Tensorflow
- 19. Можно ли изменить существующий график вычислений TensorFlow?
- 20. Подход к проблеме распределенных вычислений с использованием .Net framework
- 21. Выполнение условных вычислений с использованием данных, распределенных по нескольким записям
- 22. распределенных вычислений с использованием очереди сообщений VS Map/Reduce
- 23. play framework 2.3 - настройка поэтапных/распределенных приложений для использования памяти?
- 24. Установка больших матричных вычислений в память при использовании Tensorflow
- 25. В каком порядке TensorFlow оценивает узлы в графе вычислений?
- 26. Как распечатать время выполнения вычислений, выполненное в коде tensorflow?
- 27. Разница между двумя версиями вычислений cross_entropy в TensorFlow
- 28. Может ли использоваться связующее ПО, ориентированное на сообщения, вместо MPI для координации распределенных вычислений?
- 29. Окружающая среда для моделирования классической модели распределенных вычислений на одной машине
- 30. Почему этот скрипт Python 0MQ для распределенных вычислений зависает с фиксированным размером ввода?