2017-01-20 5 views
0

Это вариационная сеть автокодирования, я должен определить метод выборки для создания скрытого z, я думаю, что это может быть что-то неправильно с этим. Этот файл py делает тренировку, другой файл py делает прогноз в Интернете, поэтому мне нужно сохранить модель keras, нет ничего плохого в сохранении модели, но когда я загружаю модель из файла «h5», она показывает ошибку:Keras save model issue

NameError: name 'latent_dim' is not defined 

Ниже код:

df_test = df[df['label']==cluster_num].iloc[:,:data_num.shape[1]] 

data_scale_ = preprocessing.StandardScaler().fit(df_test.values) 

data_num_ = data_scale.transform(df_test.values) 

models_deep_learning_scaler.append(data_scale_) 

batch_size = data_num_.shape[0]//10 

original_dim = data_num_.shape[1] 

latent_dim = data_num_.shape[1]*2 

intermediate_dim = data_num_.shape[1]*10 

nb_epoch = 1 

epsilon_std = 0.001 



x = Input(shape=(original_dim,)) 

init_drop = Dropout(0.2, input_shape=(original_dim,))(x) 

h = Dense(intermediate_dim, activation='relu')(init_drop) 

z_mean = Dense(latent_dim)(h) 

z_log_var = Dense(latent_dim)(h) 





def sampling(args): 

    z_mean, z_log_var = args 

    epsilon = K.random_normal(shape=(latent_dim,), mean=0., 

           std=epsilon_std) 

    return z_mean + K.exp(z_log_var/2) * epsilon 



# note that "output_shape" isn't necessary with the TensorFlow backend 

z = Lambda(sampling, output_shape=(latent_dim,))([z_mean, z_log_var]) 



# we instantiate these layers separately so as to reuse them later 



decoder_h = Dense(intermediate_dim, activation='relu') 

decoder_mean = Dense(original_dim, activation='linear') 

h_decoded = decoder_h(z) 

x_decoded_mean = decoder_mean(h_decoded) 





def vae_loss(x, x_decoded_mean): 

    xent_loss = original_dim * objectives.mae(x, x_decoded_mean) 

    kl_loss = - 0.5 * K.sum(1 + z_log_var - K.square(z_mean) - K.exp(z_log_var), axis=-1) 

    return xent_loss + kl_loss 



vae = Model(x, x_decoded_mean) 

vae.compile(optimizer=Adam(lr=0.01), loss=vae_loss) 



train_ratio = 0.95 

train_num = int(data_num_.shape[0]*train_ratio) 



x_train = data_num_[:train_num,:] 

x_test = data_num_[train_num:,:] 



vae.fit(x_train, x_train, 

     shuffle=True, 

     nb_epoch=nb_epoch, 

     batch_size=batch_size, 

     validation_data=(x_test, x_test)) 

vae.save('./models/deep_learning_'+str(cluster_num)+'.h5') 

del vae 

from keras.models import load_model 
vae = load_model('./models/deep_learning_'+str(cluster_num)+'.h5') 

это показывает сообщение об ошибке: NameError: name 'latent_dim' is not defined

ответ

0

Для вариационного потери вы используете много переменных не известно модулем Keras. Вам необходимо передать их через custom_objects параметр load_model функции.

В вашем случае:

vae.save('./vae_'+str(cluster_num)+'.h5') 
vae.summary() 

del vae 

from keras.models import load_model 
vae = load_model('./vae_'+str(cluster_num)+'.h5', custom_objects={'latent_dim': latent_dim, 'epsilon_std': epsilon_std, 'vae_loss': vae_loss}) 
vae.summary() 
+0

Он работает в том же р файла, но он не работает, если я создаю новый р файл при загрузке h5 файла с диска, ошибка: NameError: Название ' latent_dim 'не определен – zb1872

+0

Да, 'custom_objects' - это просто словарь .. в новом файле эти переменные/функции не существуют. Поэтому вам нужно определить их или рассолить их. Кроме того, поскольку в вариационной потере вам нужно использовать 'z_mean' и' z_log_var', вам может понадобиться снова создать часть архитектуры, поскольку рассол не будет работать. – indraforyou