2017-04-20 9 views
-1

私は、二値化されたニューラルネットワークがどのようにモデルサイズを縮小し、実行時間を改善するかを示すような様々な素晴らしい論文に出会った。https://arxiv.org/abs/1603.05279 https://arxiv.org/abs/1602.02830 しかしここに掲載された研究コードhttps://github.com/allenai/XNOR-Netとここではhttps://github.com/itayhubara/BinaryNetは内部的に浮動小数点データ型としてバイナリの重みを表しています(値はバイナリに制限されています)。私は、効率的な推論(ランタイムメモリと速度)の実装を提供するフレームワークがあるかどうか疑問に思っています。私はtensorflowやtorch7のような一般的なフレームワークでモジュールを見つけることはできないようです。バイナリニューラルネットワークを配備する方法は?

答えて

1

あなたは二値化したネットワークのためのGPUカーネルでのより深い表情をしたい場合は、このTheanoプロジェクトが関連している:https://github.com/MatthieuCourbariaux/BinaryNet/tree/master/Run-time

ネオンが、この中に導入されたいくつかのビット単位の層は、コミットをサポートしています:https://github.com/NervanaSystems/neon/commit/caf0aaaaa1438b09c905e0780ba1120c6fd25f1c

Tensorflowについては、問題スレッドに気をつけてください。#1592

また、「Bitwise Neural Networks」の論文、Kim Minje、Paris Smaragdisも読んでみてください。

関連する問題