1
私は、pytorchで簡単なネットワークを訓練するためにiris-datasetを使用します。pytorchデータローダ複数の反復
trainset = iris.Iris(train=True)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=150,
shuffle=True, num_workers=2)
dataiter = iter(trainloader)
データセット自体は150のデータ点を持っており、なぜなら私の質問は今ある150
のバッチサイズの一回データセット全体にわたるpytorchのデータローダーを反復処理の強行tは、一般的にどのような方法があります一度反復処理を行うと、データセットのデータを繰り返すようにデータローダーに指示しますか?
thnaks
更新
は、それが だけでデータローダーのサブクラスを作成し、自分の__next__()
PyTorch [基本チュートリアル](http://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html) – jdhao
を読んだことはありますか?もちろん、私の質問とは何が関係していますか? –
このチュートリアルでは、ここで求めている内容を正確に示しています。 – jdhao