0
私は深く学習するのが初めてで、NOT
ロジックをkeras
に実装しようとしています。しかし、結果は正しくありません。以下はコードです。
Kerasの単純なニューラルネットワークで、NOT論理が間違った出力を生成する
from keras.layers import Input, Dense
from keras.models import Model
import numpy as np
inputs = Input(shape=(1,))
x = Dense(1024, activation='relu')(inputs)
x = Dense(2048, activation='relu')(x)
predictions = Dense(1, activation='softmax')(x)
model = Model(input=inputs, output=predictions)
model.compile(optimizer='adam', loss='mean_squared_error', metrics=['accuracy'])
X = np.array([[0.], [1.]], dtype=np.float32)
y = np.array([[1.], [0.]], dtype=np.float32)
print "learning....."
model.fit(X, y, nb_epoch=100)
print model.predict(X)
出力:
ごとに出力が同じであるエポック:
Epoch 100/100
2/2 [==============================] - 0s - loss: 0.5000 - acc: 0.5000
との予測は次のとおりです。
[[ 1.]
[ 1.]]
私が何であるか、わかりませんこのネットワークでは間違っています。
。私はちょうど読まなければならないリンクを含むいくつかの編集を追加しました。これは、最初のケース(softmax with mse)のセットアップに関する小さな警告です。 – sascha