Google Cloud StorageからGoogle Cloud機能に大きなファイル(> 100MB)を読み込む方法はありますか? quotasで、「バックグラウンド関数の最大イベントサイズ」が10MBに制限されていると読んでいます。私はそれを塊状に読むことができますか?Google Cloud StorageからGoogle Cloud機能に大きなファイルを読み込みますか?
多くのありがとうございます。
Google Cloud StorageからGoogle Cloud機能に大きなファイル(> 100MB)を読み込む方法はありますか? quotasで、「バックグラウンド関数の最大イベントサイズ」が10MBに制限されていると読んでいます。私はそれを塊状に読むことができますか?Google Cloud StorageからGoogle Cloud機能に大きなファイルを読み込みますか?
多くのありがとうございます。
クラウドストレージ機能は、ファイルのメタデータを使用して起動されます。ファイルのメタデータは、比較的小さく、最大イベント側の制限に達しません。
access the actual contents of the fileには、クラウドストレージ用のnode.jsパッケージが使用されます。これは10MBの制限の影響を受けません。
これは単にfalseです。 Google Cloud機能との間で10MBを超えるファイルをダウンロードまたはアップロードすることはできません。あなたはエラーを得ることはありません、機能は単にタイムアウトします。 –
機能がタイムアウトすると、ファイルサイズと転送速度の組み合わせに関係します。例えば。 1Kb/sの帯域幅を提供するサービスから1Mbファイルをダウンロードしている間にタイムアウトすることができます。もちろん、ファイルサイズが大きいほどタイムアウトの可能性が高くなりますが、その主な原因はダウンロードにかかる時間です。 –
私は今それを自分でテストしたし、はい、それは動作します。ありがとう。 – Thorolus
私の知る限り残念ながら、これは不可能です。
しかし、resumable = trueに設定すると、Google Cloud機能からCloud Storageに大きなファイルをアップロードすることは可能です。これが動作する仕組みは、ファイルの10MBをバケツにアップロードし、最終的にタイムアウトして再試行し、ファイルを再ダウンロード、再処理、再アップロードし、次の10MBのファイル、など。
明らかに、これはすべての処理を繰り返し実行する必要があり、プロセス全体を非常に非効率的にし、推奨しないようにタイムアウトする要求が必要です。
ファイルはどこにありますか?クライアントデバイスからのものである場合は、[Firebase SDK for Cloud Storage](https://firebase.google.com/docs/storage/)を使用してファイルをアップロードします。 –
@FrankvanPuffelen Google Cloud Storageバケットに保存されています。 – Thorolus