nolearn

    2

    1答えて

    ダニエル・ノウリのtutorialさんにCNNを使った顔認識についてお伝えしていますが、わかりません。これはある意味、中しかし、実際の実装を行い class EarlyStopping(object): def __init__(self, patience=100): self.patience = patience self.best_valid = np.i

    0

    1答えて

    私は現在、機械学習に関連するいくつかのプロジェクトに取り組んでいます。 オブジェクトからいくつかのフィーチャを抽出しました。 だから私は訓練し、NB、SVMおよび他の分類アルゴリズムを備えてテストし、私はnolearn.dbnを用いたニューラルネットワークと同じ機能を訓練するとき 約70〜80%を引き起こすしまったし、それをテスト私が得ました約25%は正しく分類されています。私は2つの隠れた層を持

    0

    1答えて

    nolearn.lasagne NeuralNetモデルに重みとバイアスを保存するにはどうすればよいですか?ドキュメントからは、NeuralNetの重みと偏りにアクセスしてそれらを保存する方法がわかりません。全体nolearnモデル(訓練歴、パラメータおよびアーキテクチャ)を保存するには

    6

    2答えて

    私はlasagne/nolearnを使ってオートエンコーダーを訓練しました。ネットワーク層が[500,100,100,500]であると仮定する。 net.predict(X, layer=2) ので、私は私のデータの抑制表現を取得します:私は、次のような何かをしたい net.fit(X, X) :私はそうのようなニューラルネットを訓練してきました。したがって、私の初期データの形状が[100

    0

    1答えて

    私はnolearnで作業し、複数の入力を結合するためにConcatLayerを使用しようとしています。すべての入力が同じタイプと形状を持つ限り、素晴らしい動作をします。私は最終的に単一のスカラー出力値を生成する3つの異なるタイプの入力を持っています。 第一の入力は、第2の入力は、長さ87 のベクトルであり、第三は、単一のスカラー値 ある寸法の画像(288,1001) あります 私は最初の入力でCo

    1

    1答えて

    私はnolearnライブラリを使ってニューラルネットワークを作成しました。 net = NeuralNet( layers=[ ('input', layers.InputLayer), ('conv1', layers.Conv2DLayer), ('pool1', layers.MaxPool2DLayer), ('dropout1', layers.D

    2

    1答えて

    主な問題は、 私は、特定の層の重みのプロットを理解することはできません。 ノー学ぶからメソッドを使用:plot_conv_weights(layer, figsize=(6, 6)) イムを私のニューラルネットワークライブラリとしてラザニアを使用。 プロットはうまくいきますが、私はそれをどのように解釈すべきか分かりません。ここ InputLayer 1x31x31 Conv2DLayer 20

    3

    1答えて

    コンテキスト:私は、それぞれに2つの関連する確率値を持つ一連のドキュメントを持っています:クラスAに属する確率またはクラスBに属する確率です。クラスは相互に排他的です。確率は1になる。したがって、例えば文書Dは、地面の真理として関連付けられる確率(0.6、0.4)を有する。 各文書は、0から1に正規化された用語のtfidfで表されます。私はdoc2vec(正規化された形式-1から1)と他のいくつか

    1

    1答えて

    私は単純なsin関数を近似するために、lasagneとnolearn NeuralNet関数を試しています。結局のところ、ニューラルネットは普遍的な近似値であることが証明されているので、実験的にその事実を示すために単純な非線形関数でラザニアを試したかったのです。 net= NeuralNet( layers=[ ('input', layers.InputLayer), ('h