Google DataFlow(Apache Beamベース)Python SDKを使用して、私たちのパイプラインをテストする方法を理解しています。Pythonでビームパイプライン(Google Dataflow)をどのようにテストしますか?
https://beam.apache.org/documentation/pipelines/test-your-pipeline/ https://cloud.google.com/dataflow/pipelines/creating-a-pipeline-beam
上記のリンクは、Javaだけのためです。私はGoogleがJava Apacheのテストを指す理由についてかなり混乱しています。
私は2つのコレクションにCoGroupByKey結合の結果を表示したいと考えています。私はPythonの背景から来ており、Beam/Dataflowを使用する経験はほとんどありません。
本当に助けてもらえますか?私はこれがある程度開いていることを知っています。基本的に私はパイプライン内で結果を見ることができる必要があり、私のCoGroupByKey Joinの結果を見ることができません。
印刷されて何
#dwsku, product are PCollections coming from BigQuery. Nested Values as
#well in Product, but not dwsku
d1 = {'dwsku': dwsku, 'product': product}
results = d1 | beam.CoGroupByKey()
print results
以下に、コード:あなたはあなたのマシン上でローカルにそれをテストしたい場合は
PCollection[CoGroupByKey/Map(_merge_tagged_vals_under_key).None]
を実行しているとき、私は完全に質問を得ることはありませんが、多分これは役立ちますクエリに
LIMIT
を置く必要がありますか? https://beam.apache.org/get-started/quickstart-py/ –