Я построил модель TensorFlow с использованием высокоуровневого API обучения TensorFlow (tf.contrib.learn). Мне нужно запустить эту модель как службу Linux/Unix. Или экспортируйте модель как исполняемый файл. Это возможно? И если да, то как я могу это сделать?Может ли модель TensorFlow работать как служба Linux/Unix?
Любая помощь приветствуется.
Мне нужно сделать прогнозы на моей обученной модели с моего сервера, так как мне нужен ответ предсказания в течение 300 миллисекунд (в идеале 100 миллисекунд), что невозможно, если мы сделаем вызов модели, находящейся на другом сервере (TensorFlow Server) , Любая идея о том, как это можно достичь? – Vasanti
Вы все еще можете делать RPC на своей локальной машине. Это не должно стоить выше 10 мс. В противном случае вы можете использовать [C API] (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/c/c_api.h). – drpng
Как я могу позвонить RPC с моей локальной машины, которая занимает менее 10 секунд? В настоящее время у меня есть система Ubuntu, в которой я настроил TensorFlow Serving и экспортировал обучаемую модель. Тем не менее, когда я делаю прогнозы на сохраненной модели, это занимает примерно 2-3 минуты, чтобы сделать прогнозы и распечатать их в моей консоли. – Vasanti