0
だから私はこのpaperからtheano
にselu活性化を実装しようとしています。 私の現在の実装は次のようになります。gpu用のseluアクティベーション機能を実装するより良い方法はありますか?
def selu(x):
alpha = 1.6733
lambda_ = 1.0507
inds = x <= 0
selu = (alpha * theano.theano.tensor.exp(x) - alpha)
x = theano.tensor.set_subtensor(x[inds.nonzero()],selu[inds.nonzero()])
x = lambda_ * x
return x
残念ながら、私はそれを自分自身を実装しようと約行ってきたので、人気のあるフレームワークKeras
を使用「することはできません」。 私はgpuの機能をフレンドリーにするために必要な技術に慣れていないので、私は助けを求めています。ありがとう!