私は、Pickleファイルを使用するDataFlowパイプラインをリモートで実行しようとしています。 ローカルでは、以下のコードを使用してファイルを呼び出すことができます。パスは、クラウド・ストレージ(:// ... GS):約あるときGoogle Cloud DataFlowジョブのGCSからBLOB(ピクル)ファイルを読み取る方法は?
with open (known_args.file_path, 'rb') as fp:
file = pickle.load(fp)
は、しかし、私はそれが有効ではありません見つける
IOError: [Errno 2] No such file or directory: 'gs://.../.pkl'
私は種類のそれが機能していないが、私はできない理由を理解しますそれを行う正しい方法を見つける。