2016-11-09 2 views
-1

Я построил модель TensorFlow с использованием высокоуровневого API обучения TensorFlow (tf.contrib.learn). Мне нужно запустить эту модель как службу Linux/Unix. Или экспортируйте модель как исполняемый файл. Это возможно? И если да, то как я могу это сделать?Может ли модель TensorFlow работать как служба Linux/Unix?

Любая помощь приветствуется.

ответ

0

Лучшим способом, вероятно, является запуск tensorflow server на вашем локальном компьютере, а затем подключение к нему через RPC. Вы можете поместить команду обслуживания в /etc/initd или /etc/systemd.

+0

Мне нужно сделать прогнозы на моей обученной модели с моего сервера, так как мне нужен ответ предсказания в течение 300 миллисекунд (в идеале 100 миллисекунд), что невозможно, если мы сделаем вызов модели, находящейся на другом сервере (TensorFlow Server) , Любая идея о том, как это можно достичь? – Vasanti

+0

Вы все еще можете делать RPC на своей локальной машине. Это не должно стоить выше 10 мс. В противном случае вы можете использовать [C API] (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/c/c_api.h). – drpng

+0

Как я могу позвонить RPC с моей локальной машины, которая занимает менее 10 секунд? В настоящее время у меня есть система Ubuntu, в которой я настроил TensorFlow Serving и экспортировал обучаемую модель. Тем не менее, когда я делаю прогнозы на сохраненной модели, это занимает примерно 2-3 минуты, чтобы сделать прогнозы и распечатать их в моей консоли. – Vasanti

Смежные вопросы