2016-11-14 3 views
0

В настоящее время я пытаюсь использовать обученную модель в приложении.Как использовать обучаемую модель tflearn в приложении?

Я использую this code для генерации имен городов США с помощью модели LSTM. Код работает отлично, и мне удается получить названия городов.

Прямо сейчас, я пытаюсь сохранить модель, поэтому я могу загрузить ее в другом приложении, не обучая модель снова.

Вот код моего основного приложения:

from __future__ import absolute_import, division, print_function 

import os 
from six import moves 
import ssl 
import tflearn 
from tflearn.data_utils import * 


path = "US_cities.txt" 
maxlen = 20 
X, Y, char_idx = textfile_to_semi_redundant_sequences(
    path, seq_maxlen=maxlen, redun_step=3) 


# --- Create LSTM model 
g = tflearn.input_data(shape=[None, maxlen, len(char_idx)]) 
g = tflearn.lstm(g, 512, return_seq=True, name="lstm1") 
g = tflearn.dropout(g, 0.5, name='dropout1') 
g = tflearn.lstm(g, 512, name='lstm2') 
g = tflearn.dropout(g, 0.5, name='dropout') 
g = tflearn.fully_connected(g, len(char_idx), activation='softmax', name='fc') 
g = tflearn.regression(g, optimizer='adam', loss='categorical_crossentropy', 
          learning_rate=0.001) 


# --- Initializing model and loading 
model = tflearn.models.generator.SequenceGenerator(g, char_idx) 
model.load('myModel.tfl') 
print("Model is now loaded !") 


# 
# Main Application 
# 

while(True): 
    user_choice = input("Do you want to generate a U.S. city names ? [y/n]") 
    if user_choice == 'y': 
     seed = random_sequence_from_textfile(path, 20) 
     print("-- Test with temperature of 1.5 --") 
     model.generate(20, temperature=1.5, seq_seed=seed, display=True) 
    else: 
     exit() 

А вот то, что я получаю в качестве выхода:

Do you want to generate a U.S. city names ? [y/n]y 
-- Test with temperature of 1.5 -- 
rk 
Orange Park AcresTraceback (most recent call last): 
    File "App.py", line 46, in <module> 
    model.generate(20, temperature=1.5, seq_seed=seed, display=True) 
    File "/usr/local/lib/python3.5/dist-packages/tflearn/models/generator.py", line 216, in generate 
    preds = self._predict(x)[0] 
    File "/usr/local/lib/python3.5/dist-packages/tflearn/models/generator.py", line 180, in _predict 
    return self.predictor.predict(feed_dict) 
    File "/usr/local/lib/python3.5/dist-packages/tflearn/helpers/evaluator.py", line 69, in predict 
    o_pred = self.session.run(output, feed_dict=feed_dict).tolist() 
    File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/client/session.py", line 717, in run 
    run_metadata_ptr) 
    File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/client/session.py", line 894, in _run 
    % (np_val.shape, subfeed_t.name, str(subfeed_t.get_shape()))) 
ValueError: Cannot feed value of shape (1, 25, 61) for Tensor 'InputData/X:0', which has shape '(?, 20, 61)' 

К сожалению, я не могу понять, почему форма изменилась, когда используя generate() в моем приложении. Может ли кто-нибудь помочь мне решить эту проблему?

Спасибо заранее

William

+0

Это не будет полностью решить ваш вопрос, но вы можете попытаться добавить 'seq_maxlen = 20' в' tflearn.models.generator.SequenceGenerator'. Я предполагаю, что '25' пришел из этого параметра contructor. – sygi

+0

Привет, сиги, спасибо за ваш ответ и извините за поздний ответ. Я изменил seq_maxlen, и теперь проблема с фигурой исправлена! Но, как вы сказали, не работает полностью ... Имена, которые сгенерированы, совсем не новы. Я попытался добавить checkpoint_path в конструктор, но ничего не изменил. –

ответ

0

РЕШИТЬ?

Одним из решений было бы просто добавить «режимы» в питон скрипт, благодаря аргументу парсер:

import argparse 
parser = argparse.ArgumentParser() 
parser.add_argument("mode", help="Train or/and test", nargs='+', choices=["train","test"]) 
args = parser.parse_args() 

А потом

if args.mode == "train": 
    # define your model 
    # train the model 
    model.save('my_model.tflearn') 

if args.mode == "test": 
    model.load('my_model.tflearn') 
    # do whatever you want with your model 

Я действительно не понимаю, почему это работает и почему, когда вы пытаетесь загрузить модель с другого сценария, которого нет. Но я думаю, это должно быть хорошо на данный момент ...

Смежные вопросы