0
私はビッグクエリにストリーミングデータのPython実装を持っています、それはdocsの例と似ています。 ... "しかし、テーブルをクエリすると、私はテーブルにストリーミングされたデータに平均25k要求を取得していますが、1日に30〜35行しかないようです(テーブルは1日に分割されます)。 "api"呼び出しを見ると、800行のantバッファが表示されますが、これは4日かかるので、私のデータは4日前の私のテーブルで見ることができません。グーグルビッグクエリ - バッファからデータをフラッシュする(バッファ上の4日間のデータ)
こんにちはshollyman、私はRFC 4122 acccordingにランダムなIDを生成するためにライブラリを使用しています。https://docs.python.org/2/library/uuid.html –
私はversiónを使用しています4 errors = table .insert_data(rows、row_ids = str(uuid.uu4())) –
このように使用すると、row_idsを指定しないでください。つまり、書かれたinsert_dataは行の現在の行のインデックスを使用してuuidキャストから文字列への部分文字列を取得するため、insert_idは単一文字または数字であり、期待通りにユニークなuuidではありません。 – shollyman