2017-12-15 35 views
0

私はトレーニングでクロスエントロピーとワンホット真ラベルを使用するTensorflowクラシファイアを持っています。これはダミー変数トラップの影響を受けやすいのですか?もしそうなら、クラスの1つを削除する必要がありますか?そうでない場合は、tf.nn.softmax_cross_entropy_with_logitsはダミー変数トラップの影響を受けませんか?コード:ダミー変数トラップとTensorflowのクロスエントロピー

batch_size = tf.shape(truthLabels_placeholder)[0] 
indices = tf.expand_dims(tf.range(0, batch_size), 1) 
labels = tf.expand_dims(truthLabels_placeholder, 1) 
concated = tf.concat(axis=1, values=[indices, labels]) 
onehot_labels = tf.sparse_to_dense(concated, tf.stack([batch_size,shared.nClasses]), 1.0, 0.0) 
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=onehot_labels) 
loss = tf.reduce_mean(cross_entropy) 

答えて

1

いいえ、これはダミー変数トラップの影響を受けません。これらのノートは、クロスエントロピー関数とソフトマックス関数を使用して分類するための損失関数を作成する動機付けをしています。http://cs231n.github.io/linear-classify/#softmax

関連する問題