hdf5

    3

    2答えて

    juliaには、データセットをロードせずにhdf5ファイルのフィールド(構造、グループ、ディメンションを含む)をリストする方法はありますか? HDF5パッケージにh5ls -r -fと似たものが見つかりませんでした。ありがとう。

    1

    1答えて

    私は現在、単純な分類作業のためにCNN(Keras/Tensorflow)をトレーニングするために大きな画像データセット(〜60GB)を使用しています。 イメージはビデオフレームなので、時間的には相関が高いので、巨大な.hdf5ファイルを生成するときにデータを一度シャッフルしました... セット全体を一度にメモリにロードすることなくCNNにデータを送る私は単純なバッチジェネレータを作成しました(下

    1

    1答えて

    .to_hdfメソッドで作成されたPandas DataFramesを含むいくつかのファイルがあります。私の質問は非常に簡単です:.h5ファイルに格納されているDataFrameのサイズをRAMにロードせずに取り出すことは可能ですか? 動機:これらのHDF5ファイルに格納されているDataFramesは非常に大きく(数GBまで)、データの形状を取得するためにすべてのデータをロードするのは本当に時間

    0

    1答えて

    ここではかなり新しいです。私は明確にしようとします。 私はpytablesでhdf5ファイルを作成しました。私はそれをデータで埋めました。私はS3とストアから同じHDF5ファイルをダウンロードした s3_client.upload_file(local_file_key, aws_bucket_name, aws_file_key) : はその後、私はこのコードを使用してS3バケットに私のAWSク

    0

    2答えて

    現在のフォーマットである.CSVではなく、.hdf5フォーマットの出力ファイルを吐き出すために、大規模なオール風洞シミュレーションを編集しようとしています。 現在、シミュレーション全体がEclipse CDT上で実行され、WindowsとLinuxプラットフォームの組み合わせでMinGW g ++を使用して&がリンクされています。私はWindows 7 Enterpriseデバイスを使用しています

    0

    1答えて

    例えば、私は他のInputとOutputでOutput データであり、1はInputで、2つのデータセットを作りたいが、マルチ暗くなります。 な としてしかし、私は h5py、 input_nodeと output_nodeに気づくが固定されています。 hdf5はこれを処理することはできません Input = f.create_dataset('Input', (3,input_node),dty

    0

    1答えて

    null値をhdf5ファイルに保存したい。 h5file = tables.open_file("demo.h5", mode="w", title="demo") group = h5file.create_group('/', 'depth','Dept Data information') table = h5file.create_table(group, 'readout', dep

    1

    1答えて

    私は、その中にすべてのものが入ったブロブに食べさせて、私のcaffeモデルをテストしようとしています。 net = caffe.Net(Model,Pretrained,caffe.TEST) data = net.blobs['img'].data.copy() :その後、私は確信して私のデータがで正しく供給されていることを確認してみてください layer{ name:"data"

    1

    1答えて

    デフォルトのバックエンドエンジンがこのfunction にnetcdf4に設定されているxarrayにデフォルトエンジンをh5netcdf作るための最善の方法は何ですか?

    2

    1答えて

    私は事前に準備されたInceptionV3モデルを使用して、101カテゴリ、1カテゴリにつき1000のフードイメージを含むfood-101 datasetを分類しようとしています。 データ分割されています:私は内部の次のテーブルを持つ単一のHDF5ファイル(私はこれが訓練外出先でのローディング画像に比べて有益であると仮定)これまでのところ、にこのデータセットを前処理しました標準の70%トレイン、2