2015-12-23 2 views
3

Может ли кто-нибудь дать указания о том, как настроить tenorflow для работы на многих процессорах по сети? Все примеры, которые я нашел до сих пор, в лучшем случае используют только один локальный ящик и multi-gpus. Я обнаружил, что могу передать список целей в session_opts, но я не уверен, как настроить tenorflow на каждом поле для прослушивания сетевых узлов/задач. Любой пример будет очень благодарен!Настройка Tensorflow для распределенных вычислений

ответ

4

Версия с открытым исходным кодом (в настоящее время 0,6) TensorFlow поддерживает только однопроцессное выполнение: в частности, единственной допустимой целью в tensorflow::SessionOptions является пустая строка, что означает «текущий процесс».

TensorFlow whitepaper описывает структуру распределенной реализации (см. Рисунок 3), которую мы используем внутри Google. Основная идея заключается в том, что интерфейс сеанса может быть реализован с использованием RPC для ведущего ; и мастер может разбивать вычисления на множество устройств в нескольких процессах , которые также обмениваются данными с использованием RPC. Увы, текущая версия сильно зависит от встроенных технологий Google (например, Borg), поэтому остается много работы, чтобы подготовить ее к внешнему потреблению. В настоящее время мы работаем над этим, и вы можете следить за ходом работы на this GitHub issue.

EDIT 26.02.2016: Сегодня мы выпустили initial version of the distributed runtime в GitHub. Он поддерживает несколько машин и несколько графических процессоров.

Смежные вопросы