もう少しBigQueryを読むことをお勧めします。あなたは、それが実際に何であるかという概念を完全に把握しているようには見えません。まずはhereを試してください。 Googleのインフラストラクチャーの力を使って、SQLを使って大規模に拡張可能なデータ分析を考えるその後、そのstreaming API functionalityを見てください。これにより、RESTful APIを介してHTTP POST要求を使用して「イベント」を挿入することができます。
あなたが頭を抱えたら、データをストリームするいくつかのソリューションがあります。BigQueryに直接行くことはできますが、それはいい考えではありません。 varunの答えで言及したように、Pub/Sub & Dataflowを実際に接続することができますが、あなたが必要としているほどあまりにも多いかもしれません。
このため、共通のパターン/解決策は、キューを使用して、そのキューからイベントを非同期で消費し、それらをバッチでBigQueryにプッシュすることです。これは私たちが多くのプロジェクトでそれをやる方法であり、すばらしく働いています。
これを達成するためにGAEを使用する必要はありません。任意のタイプのキューを使用することも、独自のカスタムキューを構築することもできます。たとえば、SQS(イベントはEC2上で実行されているApacheノードから発生します)を使用してAWS上のキューを実行し、イベントをSQSから非同期で消費するアプリケーションを持っています。
同じ効果を達成するためにRedisも使用します。これは本番環境で実行され、スケーラブルで、約50,000イベントをBigQueryに一分間に処理します。私たちのエンジニアの一人がブログ記事を投稿しましたhere。
ご覧のとおり、これに対する解決策を作る方法はたくさんあります。しかし、基本的な前提は、あなたの "イベント"を非同期的に処理する何らかのキューを用意し、それらを一括してBigQueryにプッシュして分析を行い、BIツールをプラグインして素敵なグラフを作成することです。また、あなたが選択するソリューションは、特定のユースケースに応じて異なります。あなたのイベントはどこから由来していますか?あなたのスキルセットはどうですか?
希望すると便利です。
bigqueryはappengineの一部ではありません。 bqストリーミング・インサートを使用してください。読んだり読んだりしたり、bigqueryの基礎を理解しているようですが、必要な読書をしています。 –