2017-10-24 6 views
1

私はコード内でバッチを作成するという問題がありますが、バッチ処理の方法を検索しようとしましたが、MNISTサンプルプログラムでnext_batchのようなメソッドを使用していました。誰かが私のプログラムでバッチを作るべきであるというヒントを実際に私に与えることができたら、本当に感謝します。バッチテンソルを作成する

import tensorflow as tf 
import numpy as np 
from sklearn import cross_validation 
import pandas as pd 
np.random.seed(20160612) 
tf.set_random_seed(20160612) 

#this is input data, data is a 7x86594 and label is a 5x86594 
data2 = pd.read_csv('rawdata.csv', sep=',', header=None) 
data = np.array(data2) 
label2=pd.read_csv('class.csv', sep='\t', header=None) 
label=np.array(label2) 

train_x,test_x,train_t,test_t=cross_validation.train_test_split(data,label,test_size=0.1,random_state=None) 

#this is supposed to be neural size in hidden layer 
num_units = 15 

x = tf.placeholder(tf.float32, [None, 7]) 
t = tf.placeholder(tf.float32, [None, 5]) 

w1 = tf.Variable(tf.truncated_normal([7, num_units], mean=0.0, stddev=0.05)) 
b1 = tf.Variable(tf.zeros([num_units])) 
hidden1 = tf.nn.relu(tf.matmul(x, w1) + b1) 

w0 = tf.Variable(tf.zeros([num_units, 5])) 
b0 = tf.Variable(tf.zeros([5])) 

p = tf.nn.softmax(tf.matmul(hidden1, w0) + b0) 


loss = -tf.reduce_sum(t * tf.log(tf.clip_by_value(p,1e-10,1.0))) 
train_step = tf.train.AdamOptimizer().minimize(loss) 
correct_prediction = tf.equal(tf.argmax(p, 1), tf.argmax(t, 1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 


sess = tf.InteractiveSession() 
sess.run(tf.initialize_all_variables()) 

#this is how i think batching is 

batch_size = 100 
for j in range(0, 86594, batch_size): 
    xs,ys= train_x[j:j+batch_size], train_t[j:j+batch_size] 


i = 0 

for _ in range(4000): 
    i += 1 

    sess.run(train_step, feed_dict={x: xs, t: ys}) 
    if i % 100 == 0: 
     loss_val, acc_val = sess.run([loss, accuracy],feed_dict={x:test_x, t: test_t}) 
     print ('Step: %d, Loss: %f, Accuracy: %f'% (i, loss_val, acc_val)) 

もちろん、このプログラムの結果は正しくありません。

答えて

0

データのバッチを抽出したままにしておき、訓練のためにネットワークに供給し続けます。各エポックでは、トレーニングデータセットのすべてのサンプルを1回実行する必要があります。唯一のコードの一部

必須::だから、あなたは、このようなあなたのコードを書き換えることができ

epochs = 4000 
batch_size = 100 
for epoch_no in range(epochs): 
    for index, offset in enumerate(range(0, 86594, batch_size)): 
     xs, ys = train_x[offset: offset + batch_size], train_t[offset: offset + batch_size] 
     sess.run(train_step, feed_dict={x: xs, t: ys}) 

     if index % 100 == 0: 
      loss_val, acc_val = sess.run([loss, accuracy], feed_dict = {x: test_x, t: test_t}) 
      print ('Epoch %d, Step: %d, Loss: %f, Accuracy: %f'% (epoch_no, index, loss_val, acc_val)) 
+0

、私は申し訳ありませんが、私はあなたのコードで自分のコードを交換した場合、それは500倍などのためのプログラムの実行ステップ0になります私もこのように "入れ子にしました"ように試みましたが、結果は何度も何度もプログラムのステップ0を実行したようなものでした。私はバッチセクションのコードを間違っていましたか? – mstfa23

+0

@ mstfa23私は間違った方法で印刷していました。今は、100回目のトレーニングのたびにすべてのエポックで印刷されます。それを実行し、再度確認してください。また、上記のコードを、あなたのコード 'batch_size = 100'からすべてのコードに置き換えてください。 – user1190882

+0

編集したコードを実行しようとしましたが、100回ごとにエポックを取得するのではなく、9回ごとにエポックを取得し、0,100までステップを進めました。800まで、エポック1に9回進み、 0から800まで(9回も同様)。私はあなたが言ったように、batch_sizeの行に編集したコードを自分のコードに置きました。 – mstfa23

関連する問題