В настоящее время я пытаюсь использовать обученную модель в приложении.Как использовать обучаемую модель tflearn в приложении?
Я использую this code для генерации имен городов США с помощью модели LSTM. Код работает отлично, и мне удается получить названия городов.
Прямо сейчас, я пытаюсь сохранить модель, поэтому я могу загрузить ее в другом приложении, не обучая модель снова.
Вот код моего основного приложения:
from __future__ import absolute_import, division, print_function
import os
from six import moves
import ssl
import tflearn
from tflearn.data_utils import *
path = "US_cities.txt"
maxlen = 20
X, Y, char_idx = textfile_to_semi_redundant_sequences(
path, seq_maxlen=maxlen, redun_step=3)
# --- Create LSTM model
g = tflearn.input_data(shape=[None, maxlen, len(char_idx)])
g = tflearn.lstm(g, 512, return_seq=True, name="lstm1")
g = tflearn.dropout(g, 0.5, name='dropout1')
g = tflearn.lstm(g, 512, name='lstm2')
g = tflearn.dropout(g, 0.5, name='dropout')
g = tflearn.fully_connected(g, len(char_idx), activation='softmax', name='fc')
g = tflearn.regression(g, optimizer='adam', loss='categorical_crossentropy',
learning_rate=0.001)
# --- Initializing model and loading
model = tflearn.models.generator.SequenceGenerator(g, char_idx)
model.load('myModel.tfl')
print("Model is now loaded !")
#
# Main Application
#
while(True):
user_choice = input("Do you want to generate a U.S. city names ? [y/n]")
if user_choice == 'y':
seed = random_sequence_from_textfile(path, 20)
print("-- Test with temperature of 1.5 --")
model.generate(20, temperature=1.5, seq_seed=seed, display=True)
else:
exit()
А вот то, что я получаю в качестве выхода:
Do you want to generate a U.S. city names ? [y/n]y
-- Test with temperature of 1.5 --
rk
Orange Park AcresTraceback (most recent call last):
File "App.py", line 46, in <module>
model.generate(20, temperature=1.5, seq_seed=seed, display=True)
File "/usr/local/lib/python3.5/dist-packages/tflearn/models/generator.py", line 216, in generate
preds = self._predict(x)[0]
File "/usr/local/lib/python3.5/dist-packages/tflearn/models/generator.py", line 180, in _predict
return self.predictor.predict(feed_dict)
File "/usr/local/lib/python3.5/dist-packages/tflearn/helpers/evaluator.py", line 69, in predict
o_pred = self.session.run(output, feed_dict=feed_dict).tolist()
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/client/session.py", line 717, in run
run_metadata_ptr)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/client/session.py", line 894, in _run
% (np_val.shape, subfeed_t.name, str(subfeed_t.get_shape())))
ValueError: Cannot feed value of shape (1, 25, 61) for Tensor 'InputData/X:0', which has shape '(?, 20, 61)'
К сожалению, я не могу понять, почему форма изменилась, когда используя generate() в моем приложении. Может ли кто-нибудь помочь мне решить эту проблему?
Спасибо заранее
William
Это не будет полностью решить ваш вопрос, но вы можете попытаться добавить 'seq_maxlen = 20' в' tflearn.models.generator.SequenceGenerator'. Я предполагаю, что '25' пришел из этого параметра contructor. – sygi
Привет, сиги, спасибо за ваш ответ и извините за поздний ответ. Я изменил seq_maxlen, и теперь проблема с фигурой исправлена! Но, как вы сказали, не работает полностью ... Имена, которые сгенерированы, совсем не новы. Я попытался добавить checkpoint_path в конструктор, но ничего не изменил. –