2017-06-19 9 views
0

私はこの単純なモデルをニューラルネットを学習するために実装しました。それはよくトレーニングし、最初に与えられた出力を与えます。pythonシンプルニューラルフォワードネットXOR関数

これは私が一種の紛失している場所です.XOR機能の認識の例では、訓練をしないでテストできるようにしたいと考えています。オンライン上のすべての読み物がすべて訓練に関するものであると思われ、そこですぐに停止します。

これは、新しい入力ごとに、モデルが再計算してセット全体を訓練する必要があることを意味しますか?重量とは何か関係はありますか?モデルを「生きて」走らせ、ライブフィードバックと継続的な再トレーニングの一環として新しいインプットを取っていくことはどうでしょうか?あなたはちょうどここに、実際にニューラルネットワークの計算を行うコードを考慮しなければならない

おかげ

import numpy as np 

def nonlin(x, deriv=False): 
    if(deriv==True): 
     return x*(1-x) 

    return 1/(1+np.exp(-x)) 

#4x2 
x = np.array([[0,0],[0,1],[1,0],[1,1]]) 
print (x) 

#1x4 
y = np.array([[0],[1],[1],[0]]) 

np.random.seed(1) 

syn0 = 2*np.random.random((2,4))-1 
print (syn0) 

syn1 = 2*np.random.random((4,1))-1 

for j in range(60000): 

    l0 = x; 
    l1 = nonlin(np.dot(l0,syn0)) 
    l2 = nonlin(np.dot(l1,syn1)) 

    l2_error = y - l2 

    l2_delta = l2_error*nonlin(l2, deriv=True) 

    l1_error = l2_delta.dot(syn1.T) 

    l1_delta = l1_error * nonlin(l1,deriv=True) 

    syn1 += l1.T.dot(l2_delta) 
    syn0 += l0.T.dot(l1_delta) 

    if(j % 10000) ==0: 
     print ("Error:" + str(np.mean(np.abs(l2_error)))) 

print ("Output after training") 
print (syn0) 
print (syn1) 
print (l2) 
+1

問題は何か分かりません。入力(例えば(0,1))を提供し、ネットワークから何がなくなっているか(1に近いもの)を見れば、ネットワークを簡単にテストできます。 –

+1

サンプル/擬似コードは、達成しようとしていることを理解するのに役立ちますか? – matt2000

+0

それは馬鹿に聞こえるかもしれませんが、それはまさに私が把握できないものです...ネットワークによって与えられた重みを使うべきですか、私は1つの入力を受け取り、ネットワークでテストする機能? – matel

答えて

0

は、あなたのコードは、このように修正される:ここでは

import numpy as np 

def nonlin(x, deriv=False): 
    if(deriv==True): 
     return x*(1-x) 

    return 1/(1+np.exp(-x)) 


#4x2 
x = np.array([[0,0],[0,1],[1,0],[1,1]]) 
print ("x=",x) 

#1x4 
y = np.array([[0],[1],[1],[0]]) 
print ("y=",y) 

np.random.seed(1) 

syn0 = 2*np.random.random((2,4))-1 
print (syn0) 

syn1 = 2*np.random.random((4,1))-1 

def NN(x): 
    l0 = x; 
    l1 = nonlin(np.dot(l0,syn0)) 
    l2 = nonlin(np.dot(l1,syn1)) 
    return (l0,l1,l2) 

for j in range(60000): 

    l0,l1,l2 = NN(x) 

    l2_error = y - l2 

    l2_delta = l2_error*nonlin(l2, deriv=True) 

    l1_error = l2_delta.dot(syn1.T) 

    l1_delta = l1_error * nonlin(l1,deriv=True) 

    syn1 += l1.T.dot(l2_delta) 
    syn0 += l0.T.dot(l1_delta) 

    if(j % 10000) ==0: 
     print ("Error:" + str(np.mean(np.abs(l2_error)))) 

print ("Output after training") 
print ("trained l0 weights:",syn0) 
print ("trained l1 weights:",syn1) 
l0,l1,l2 = NN(x) 
print ("NN(",x,") == ",l2) 

NN(x)はニューラルネット計算を行う関数。入力ベクトル、隠れたレイヤー、出力レイヤの値をタプルで返します。クリーナーインターフェイス用に別の機能をコーディングすることができます。

def NNout(x,syn0,syn1): 
    l0 = x; 
    l1 = nonlin(np.dot(l0,syn0)) 
    l2 = nonlin(np.dot(l1,syn1)) 
    return l2