2016-11-04 2 views
2

Я пытаюсь использовать shuffle.batch для пакетной обработки данных для обучения, загруженного из CSV-файла. Однако, когда я запускаю код, похоже, он не работает. Это не показало ошибок, но не закончилось.TensorFlow: shuffle_batch не показывал никаких ошибок, но не закончил

Итак, не могли бы вы предложить мне, что не так с моим кодом?

Кроме того, что подходит для емкости и min_after_dequeue?

import tensorflow as tf 
import numpy as np 


test_label = [] 
in_label = [] 

iris_TRAINING = "iris_training.csv" 
iris_TEST = "iris_test.csv" 

# Load datasets. 
training_set = tf.contrib.learn.datasets.base.load_csv_with_header(filename=iris_TRAINING, target_dtype=np.int, features_dtype=np.float32) 
test_set = tf.contrib.learn.datasets.base.load_csv_with_header(filename=iris_TEST, target_dtype=np.int, features_dtype=np.float32) 

x_train, x_test, y_train, y_test = training_set.data, test_set.data, training_set.target, test_set.target 



for n in y_train: 
    targets = np.zeros(3) 
    targets[int(n)] = 1 # one-hot pixs[0] is label and then use that number as index of one-hot 
    in_label.append(targets) #store all of label (one-hot) 
training_label = np.asarray(in_label) 

for i in y_test:  
    test_targets = np.zeros(3) 
    test_targets[int(i)] = 1 # one-hot pixs[0] is label and then use that number as index of one-hot 
    test_label.append(test_targets) 
test_label = np.asarray(test_label) 


x = tf.placeholder(tf.float32, [None,4]) #generate placeholder to store value of features for training 

W = tf.Variable(tf.zeros([4, 3])) #weight 
b = tf.Variable(tf.zeros([3])) #bias 

y = tf.matmul(x, W) + b 

y_ = tf.placeholder(tf.float32, [None, 3]) #generate placeholder to store value of labels 


cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_)) 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 


sess = tf.InteractiveSession() 
# Train 
tf.initialize_all_variables().run() 

for i in range(5): 
    batch_xt, batch_yt = tf.train.shuffle_batch([x_train,training_label],batch_size=10,capacity=200,min_after_dequeue=10) 
    sess.run(train_step, feed_dict={x: batch_xt.eval(), y_: batch_yt.eval()}) 
    print(i) 

# Test trained model 
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 


print(sess.run(accuracy, feed_dict={x: x_test, y_: test_label})) 

ответ

0

Shuffle_batch сборка:

  1. очередь Q, в которую партия набора данных будет Епдиеей
  2. операции по из очереди Q и получить партию
  3. QueueRunner, выданный Q

(см here для более подробной информации)

Так что вам не нужно вызывать Shuffle_batch на каждой итерации, но только один раз, прежде чем ваш цикл. И вы должны позвонить по телефону tf.train.start_queue_runners(). Таким образом, конец кода должен быть что-то вроде:

sess = tf.InteractiveSession() 
# Train 
tf.initialize_all_variables().run() 
batch_xt, batch_yt = tf.train.shuffle_batch([x_train,training_label],batch_size=10,capacity=200,min_after_dequeue=10) 
tf.train.start_queue_runners() 

for i in range(5): 
    sess.run(train_step, feed_dict={x: batch_xt.eval(), y_: batch_yt.eval()}) 
    print(i) 

# Test trained model 
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 


print(sess.run(accuracy, feed_dict={x: x_test, y_: test_label})) 

Подходящих значений для мощности и min_after_dequeue зависит от вашей доступной памяти и ввода/вывод пропускной способности. Емкость ограничивает место, занимаемое памятью вашего набора данных. Они могут повлиять на время вычисления, но не на конечный результат (см. here).

Смежные вопросы