2017-05-23 8 views
0

私はビッグクエリにストリーミングデータのPython実装を持っています、それはdocsの例と似ています。 ... "しかし、テーブルをクエリすると、私はテーブルにストリーミングされたデータに平均25k要求を取得していますが、1日に30〜35行しかないようです(テーブルは1日に分割されます)。 "api"呼び出しを見ると、800行のantバッファが表示されますが、これは4日かかるので、私のデータは4日前の私のテーブルで見ることができません。グーグルビッグクエリ - バッファからデータをフラッシュする(バッファ上の4日間のデータ)

答えて

2

tabledata.insertAllを呼び出すと、各行に重複除外insertIdが指定されていますか?挿入されたすべての行に対して同じinsertIdを再使用している場合、これに類似した動作が観察されます。

+0

こんにちはshollyman、私はRFC 4122 acccordingにランダムなIDを生成するためにライブラリを使用しています。https://docs.python.org/2/library/uuid.html –

+0

私はversiónを使用しています4 errors = table .insert_data(rows、row_ids = str(uuid.uu4())) –

+0

このように使用すると、row_idsを指定しないでください。つまり、書かれたinsert_dataは行の現在の行のインデックスを使用してuuidキャストから文字列への部分文字列を取得するため、insert_idは単一文字または数字であり、期待通りにユニークなuuidではありません。 – shollyman

関連する問題