2017-11-15 4 views
0

だから私はこのpaperからtheanoにselu活性化を実装しようとしています。 私の現在の実装は次のようになります。gpu用のseluアクティベーション機能を実装するより良い方法はありますか?

def selu(x):                  
    alpha = 1.6733                
    lambda_ = 1.0507                
    inds = x <= 0                
    selu = (alpha * theano.theano.tensor.exp(x) - alpha)       
    x = theano.tensor.set_subtensor(x[inds.nonzero()],selu[inds.nonzero()])   
    x = lambda_ * x                
    return x 

残念ながら、私はそれを自分自身を実装しようと約行ってきたので、人気のあるフレームワークKerasを使用「することはできません」。 私はgpuの機能をフレンドリーにするために必要な技術に慣れていないので、私は助けを求めています。ありがとう!

答えて

0

それははるかに速く解決策は以下の通りですターン:

import theano                 
def selu(x):                  
    alpha = 1.6733                
    lambda_ = 1.0507                
    return lambda_ * theano.tensor.nnet.elu(x, alpha=alpha) 
関連する問題