2016-05-11 9 views
0

私はこのLua-TorchコードをPythonコードに入れようとします。 は、私は意味の結果/プロセスを理解する難しさを持っている:PythonでLuaコードを解釈する

= nn.Linear(size1 
t2h_d.data.module:share(

import 'nn' 
    import 'nngraph' 

    nh_t= nn.identity(d) 
    h_d= nn.identity(d) 

    size1= 5 
    t2h_d = nn.Linear(size1, 4 * size1)(h_t):annotate{name='ih_'..L} 
    d2h_d = nn.Linear(size1, 4 * size1)(h_d):annotate{name='hh_'..L} 


    t2h_d.data.module:share(shared_weights[1], 'weight', 'bias', 'grdWeight', 'grdBias') 
    d2h_d.data.module:share(shared_weights[2], 'weight', 'bias', 'grdWeight', 'grdBias') 

誰かがnumpyのPythonで同等のを知っていることはできますか?

+0

私はコードの翻訳はここでトピックで検討されている事の一つだとは思わないが、このluaコードを複製するためにPythonで何を試したことがありますか? –

+0

それは神経ネットワークのようなものです... http://scikit-learn.org/dev/modules/neural_networks_supervised.html –

+0

scikitとは何の関係もありません(これはnumpyと行列操作に関するものです) –

答えて

0

LUAのコードのこの部分は

t2h_d.data.module:share(shared_weights[1], 'weight', 'bias') 

[1]

nn.Linear(size1, 4 * size1)(h_t):annotate{name='ih_'..L} 

W.h_tが行われる線形製品を意味し、結果はt2h_dテンソルはshare_weightsに格納された使用を使用することを意味しますWのサイズは次のとおりです。size1,4 * size1

これらの精度は、LUA nnにはドキュメントがないために便利です。

0

私はあなたが "lutorpy"という名前のPythonライブラリを試すことができると思います。したがって、すべてのlua/torchライブラリと関数をPythonで使用することができます。また、トーチのテンソルとnumpyの配列を変換する機能も実装されています。興味深いかもしれません。

関連する問題