2017-06-04 8 views
0

Andrej Karpathyの「blog」に触発された。文字の代わりに次の単語を選択するリカレントニューラルネットワークの独自のバージョンを作りたかった。 テキスト内の異なる単語の数が非常に多いため、私はword2vecを使用して単語をベクトルとして表現しました(類似した単語がベクトル空間に近い)。 NNは古いパターンのパターンから新しいベクトルを学習するようになりました。ラスタグLSTM回帰が出力としてゼロを生成する

重要な注意点は、Karpathyがクラシファイアを使用していた場合、私は回帰方法を試しています(損失コストの二乗)。

私の問題は、自分のニューラルネットワークがどのくらいトレーニングをしても出力[0,0,0 ....、0]を予測することです。私の推測では、私のトレーニングや予測の方法に問題があるということです(トレーニング中に平均誤差が少し落ちるので、いくつかのトレーニングが必要です)。

誰かが実行したいなら、茶色のコーパスを使用しているので、nltkをそのままインストールする必要があります)。

これは私の "Hello World"プロジェクトのLasagneです。だから何か愚かなことをするとどんなポインターにも感謝しています。 事前に感謝:)

from gensim.models import Word2Vec 
import gensim 
import sys 
from datetime import timedelta 
import matplotlib.pyplot as plt 
from nltk.corpus import brown 
import theano.tensor as T 
import theano 
import time 
import numpy as np 
from lasagne import layers 
import lasagne 
from lasagne.updates import nesterov_momentum 
from sklearn.preprocessing import MinMaxScaler 
from sklearn.manifold import TSNE 


def modelExcept(input, model, size): 
    try: 
     out = model[input] 
     return out 
    except Exception: 
     out = np.zeros((size)) 
     print 'exception ' + str(input) 
     return out 

def plot_TSNE(model,nr_words=None): 
    tsne = TSNE(n_components=2) 
    if nr_words == None: 
     X_tsne = tsne.fit_transform(model[model.wv.vocab][:]) 
    else: 
     X_tsne = tsne.fit_transform(model[model.wv.vocab][0:nr_words]) 

    X_names = [key for key in model.wv.vocab] 
    plt.figure() 
    ax = plt.subplot(111) 
    for i in range(X_tsne.shape[0]): 
     plt.text(X_tsne[i, 0], X_tsne[i, 1], str(X_names[i]), 
        #color=plt.cm.Set1(y[i]/10.), 
        fontdict={'weight': 'bold', 'size': 9}) 

    plt.xticks([]), plt.yticks([]) 
    plt.draw() 
    #plt.scatter(X_tsne[:, 0], X_tsne[:, 1]) 
    #plt.show() 

def getBatch(words_as_vecs , wordSize,totalwords, windowSize, BATCHSIZE): 

    BatchIndexes = np.random.randint(0,totalwords-windowSize, size=BATCHSIZE) 
    input = np.empty((BATCHSIZE,windowSize,wordSize),dtype=np.float32) 
    target = np.empty((BATCHSIZE,wordSize),dtype=np.float32) 
    for i in range(BATCHSIZE): 
     k = BatchIndexes[i] 
     input[i,:,:] = words_as_vecs[k:k+windowSize,:] 
     target[i,:] = words_as_vecs[k+windowSize,:] 

    return input, target 


wordSize = 30 
windowSize = 5 
BATCHSIZE = 128 
LEARNING_RATE = .1 
Nr_EPOCHS = 100 
NR_Predictions = 15 


model_raw = Word2Vec(brown.sents(),workers=4,window=10,iter=15,size=wordSize, min_count=10) 
#plot_TSNE(model_raw,None) 
model = model_raw.wv #trim model after training to save RAM 
del model_raw 

words_filtered = filter(lambda x: x in model.vocab, brown.words())#filter away words that are not in vocabulary 
words_as_vecs = np.asarray([modelExcept(word, model,wordSize) for word in words_filtered],dtype = np.float32) #create all vector representations beforehand to save time!! 
scaler = MinMaxScaler(feature_range=(0,1)) 
words_as_vecs = scaler.fit_transform(words_as_vecs) 

print 'creating neural net...' 

Num_units_per_layer = 512 
GRAD_CLIP = 100 
l_in = lasagne.layers.InputLayer(shape=(None,None,wordSize)) 
l_LSTM1 = lasagne.layers.LSTMLayer(l_in,Num_units_per_layer,grad_clipping=GRAD_CLIP,nonlinearity=lasagne.nonlinearities.rectify) 
l_drop1 = lasagne.layers.DropoutLayer(l_LSTM1,p=0.5) 
l_LSTM2 = lasagne.layers.LSTMLayer(l_drop1,Num_units_per_layer,grad_clipping=GRAD_CLIP,nonlinearity=lasagne.nonlinearities.rectify, only_return_final=True) 
l_drop2 = lasagne.layers.DropoutLayer(l_LSTM2,p=0.5) 
l_shp = lasagne.layers.ReshapeLayer(l_drop2,(-1,Num_units_per_layer)) 
l_out = lasagne.layers.DenseLayer(l_shp,num_units=wordSize,W=lasagne.init.Normal(), nonlinearity=lasagne.nonlinearities.rectify) 

target_vals = T.imatrix('target values') 
net_out = lasagne.layers.get_output(l_out) 
net_out_predict = lasagne.layers.get_output(l_out,deterministic = True) 

#use squared error because the problem is now a regession problem 
cost = T.sum(lasagne.objectives.squared_error(net_out,target_vals)) 

all_params = lasagne.layers.get_all_params(l_out, trainable = True) 
updates = lasagne.updates.adagrad(cost, all_params, LEARNING_RATE) 

net_train = theano.function([l_in.input_var, target_vals], cost, updates=updates, allow_input_downcast=True) 
compute_cost = theano.function([l_in.input_var, target_vals], cost, allow_input_downcast=True) 
net_predict = theano.function([l_in.input_var],net_out_predict,allow_input_downcast=True) 

print 'creating testphrase...' 
testphrase_vectors = np.empty((1,5,wordSize),dtype=np.float32) 
testphrase_vectors[0,:,:] = words_as_vecs[1:6,:] 
testphrase_words = words_filtered[0:6] 
#testphrase_words = brown.words()[0:6] 

print 'training...' 
avg_cost = 0 
totalwords = len(words_filtered) 
#totalwords = len(brown.words()) 
print_freq = totalwords/BATCHSIZE #print example every epoch 

nrItterations = Nr_EPOCHS*totalwords/BATCHSIZE 

for i in range(nrItterations): 
    inTrain, target = getBatch(words_as_vecs, wordSize, totalwords, windowSize, BATCHSIZE) 
    avg_cost += net_train(inTrain,target) 

    #generate text sample 
    if (i%print_freq == 0) and (i != 0): 
     print 'prediction of train' 

     print 'average cost is {0}' .format(avg_cost/(BATCHSIZE*print_freq)) 
     avg_cost = 0 
     generated_example = ' '.join(testphrase_words) 
     testphrase_vectors_copy = testphrase_vectors 
     for k in range(NR_Predictions): 
      prediction = np.asarray(net_predict(testphrase_vectors_copy)) 
      prediction_unscaled = scaler.inverse_transform(prediction.reshape(1,-1)).reshape(-1) 
      current_word = model.most_similar(positive=[prediction_unscaled], topn=1) 

      generated_example = ' '.join((generated_example, current_word[0][0])) 

      #insert new word in testphrase (and delete first) 
      testphrase_vectors_copy[0,0:-1,:] = testphrase_vectors_copy[0,1:,:] 
      testphrase_vectors_copy[0,-1,:] = model[current_word[0][0]] 
      #print testphrase_vectors_copy 
     print 'example nr. {}' .format(i/print_freq + 1) 
     print generated_example 
     print '\n \n' 
+0

私はLasagneではうまくいきませんので詳しくは見ていませんが、二乗誤差損失関数を使用しているという回帰についてモデルを正しく形成しているかどうかは疑問ですが、モデルは、奇妙なアプローチのように見える活性化関数を介して実行されます。私は前にこのアプローチに遭遇していないかもしれません。応答のために –

+0

ありがとう。以前は[-1,1]の範囲の単語ベクトルをスケーリングし、tanh活性化関数を使ってみましたが、結果は同じでした。私が今や気が利いた理由は、まばらな活動を奨励することです。 –

+0

ラベル(グラウンドトゥルースデータ)はどのように構造化されていますか、回帰アプローチの意味は?私は当初、線形回帰アプローチ(二乗誤差を使用することに匹敵する)を想定していました。この場合、最終密集層の後には活性化を使用しません。あなたがロジスティック回帰(間違った分類のように思える)を意味し、あなたのラベルがホット・エンコードされているなら、あなたは、ラベルを出力と比較するために損失関数を使用する前に、 。 –

答えて

0

最終的にエラーが見つかりました。

問題は、この行であった:

target_vals = T.imatrix( '目標値')であるべきである

target_vals = T.fmatrix( '目標値')

私は整数ではなく浮動小数点数を目標にしているからです。

関連する問題