カラム単位のデータを取得または更新する予定がない場合は、JSONドキュメントを単一の値として格納する計画は問題ありません。特に、カラム単位のデータを格納すると、 (および修飾子)も各行に格納する必要があるため、値の数に比例するストレージオーバーヘッドが追加されるため、規模が大きくなる可能性があります。モデルでは、Bigtableをキー値ストアとして使用します。
将来的に多くの列にJSONを分割する場合は、実行中のBigtableインスタンスに列ファミリを追加したり、既存の列ファミリ内で追加の列修飾子を使用したりすることができます。 Hadoop MapReduceまたはGoogle Cloud Dataflowのような並列プロセスである。
読み書き速度によっては、30ビッグテーブルノードのデフォルトのクォータを超える必要があります。 Bigtableサーバーノードあたりのパフォーマンスの目安を確認するにはBigtable performance pageを参照してください。ただし、特定の読み取り/書き込みパターンのベンチマークを行い、ベースラインの基準を確立し、それに応じてスケールを調整する必要があります。
追加のクォータが必要で、すでにサポートプランが適用されているGoogle Cloud Platformのお客様の場合は、サポートチケットを開いてください。そうでない場合は、get in touch with usを入力してください。私はGoogle Cloud Bigtableのプロダクトマネージャーです。連絡先フォームを使用している場合は、メッセージに自分の名前を記載して、自分にルーティングされていることを確認してください。あなたはLinkedInを介して私に手を差し伸べることもできます。
あなたのプロジェクトで最高の運があります!