2016-06-27 7 views
1

私は100のバッチでシャム・ラザニアのモデルを訓練しようとしています。入力はX1(100x3x100x100)とX2(同じサイズ)とY(100x1)で、最後の層は私は0または1の値を目標値として期待しているので、1つの出力次元。ただし、予期しないディメンションに対してエラーが発生しています。以下はコードの抜粋です。ラザニアの目標値形状

input1 = lasagne.layers.InputLayer(shape=(None,3, 100, 100), input_var=None) 
conv1_a = lasagne.layers.Conv2DLayer(input1, 
           num_filters=24, 
           filter_size=(7, 7), 
           nonlinearity=lasagne.nonlinearities.rectify) 

pool1_a = lasagne.layers.MaxPool2DLayer(conv1_a, pool_size=(3, 3), stride=2) 

レイヤ2は上記と同じです。 出力層:

dense_b = lasagne.layers.DenseLayer(dense_a, 
           num_units=128, 
           nonlinearity=lasagne.nonlinearities.rectify) 
dense_c = lasagne.layers.DenseLayer(dense_b, 
           num_units=1, 
           nonlinearity=lasagne.nonlinearities.softmax) 

net_output = lasagne.layers.get_output(dense_c) 
true_output = T.ivector('true_output') 

トレーニングコードは以下の通りです:

loss_value = train(X1_train,X2_train,Y_train.astype(np.int32)) 
print loss_value 

ValueError: Input dimension mis-match. (input[0].shape[1] = 100, input[1].shape[1] = 1) Apply node that caused the error: Elemwise{Composite{((i0 * i1) + (i2 * log1p((-i3))))}}(InplaceDimShuffle{x,0}.0, LogSoftmax.0, Elemwise{sub,no_inplace}.0, SoftmaxWithBias.0) Toposort index: 113 Inputs types: [TensorType(int32, row), TensorType(float32, matrix), TensorType(float64, row), TensorType(float32, matrix)] Inputs shapes: [(1, 100), (100, 1), (1, 100), (100, 1)] Inputs strides: [(400, 4), (4, 4), (800, 8), (4, 4)] Inputs values: ['not shown', 'not shown', 'not shown', 'not shown'] Outputs clients: [[Sum{acc_dtype=float64}(Elemwise{Composite{((i0 * i1) + (i2 * log1p((-i3))))}}.0)]]

+0

'dense_a'の定義を追加することもできますか? –

答えて

0

次のようにdraw_net.pyを使用してみてください:

import draw_net 
dot = draw_net.get_pydot_graph(lasagne.layers.get_all_layers(your_last_layer), 
verbose = True) 

dot.write("test.pdf", format="pdf") 

PDF形式のラザニアグラフをダンプする(必要でインストールするグラフビズ)

関連する問題