Я пнул это вокруг своим местным экспертом по TF, и краткий ответ «нет»; Для этого TF не имеет встроенного средства. Тем не менее, вы можете написать пользовательские уровни конечных точек (ввод и вывод) с синхронизацией из управления процессами Python, чтобы они поддерживали параллельную обработку каждого входа и объединяли выходы.
Обоснование
Мне нравится, как это можно было бы использовать для получения большей точности с множеством функций, где функции имеют мало или вообще нет корреляции. Например, вы можете тренировать две модели распознавания символов: одну для идентификации цифры, а другую - дискриминацию между левыми и правыми писателями.
Это также позволит вам изучить внутренние ядра, которые эволюционировали для каждой отдельной функции, без взаимозависимости с другими функциями: двойной цикл «8» по сравнению с общим наклонением правной записи.
Я также ожидаю, что модели для отдельных функций будут сходиться значительно быстрее, чем одна тренировочная сессия.
Наконец, вполне возможно, что отдельные модели могут использоваться в наборах сочетаний и совпадений. Например, подготовьте еще одну модель, чтобы различать буквы, в то время как ваш ранее подготовленный левый/правый флагман все еще имел бы довольно хорошее предположение о фрагменте писателя.
Я думаю, вы должны построить новый граф с несколькими головами вместо этого, чтобы вы могли ** совместно использовать ** две модели. – greeness
'import_meta_graph' добавляет к текущему графику, поэтому, возможно, дважды вызовите' import_meta_graph' и используйте 'import_scope' для размещения графиков в разных пространствах имен –