私はGoogle Cloud Platforms
を初めて利用していますが、アーキテクチャ全体ではわかりませんが、達成しようとしているのはGoogle Cloud
にデータを保存して、例えば、Dataproc
およびDatalab
のようなである。私がこれまでに読んだところでは、Google Cloud BigQuery
にデータセットを作成し、そこにテーブルを作成する必要があります。 Google Cloud Web UI
を使用してこれを行いましたが、今度はiOS app
からテーブルを取り込みたいと思います。私はそれをする方法を見つけることができないようです。iOSからGoogle Cloud BigQueryへデータをプッシュする
1
A
答えて
3
最も簡単な方法は、にFirebase Analyticsを接続し、GoogleのウォークスルーImporting Firebase Analytics Data into BigQueryに記載されているように、Big Queryに日次ログをエクスポートすることです。 Googleは、Firebaseを維持しながら、分析エクスポートスタック全体を管理しています。欠点は、分析のエクスポートが毎日だけ行われることです。
また、Loading Data with a POST Requestハウツーガイドに記載されているように、Big Query REST APIを使用してデータをアップロードすることを検討しているとします。そのためのiOSツールは、通常のNSURLSession
とNSURLDataTask
API、またはそれらの上に構築された任意の抽象化APIです。
Googleはa collection of iOS-native APIsを維持していますが、残念ながら、Big Queryは2017年5月現在、サポートされているAPIには含まれていません。Go、C#、Javaなどにはnative Big Query clientsがあります。したがって、あなたがコントロールするサーバーにアップロードするために独自のAPIを使用し、それらのクライアントAPIサーバーの1つを使用して、実際のBig Query統合を実装することができます。
関連する問題
- 1. Cloud StorageからBigQueryへのデータのストリーミング
- 2. Google BigQuery - Google Cloud Storageから直接データをアップロードする
- 3. Google BigQueryからGoogle Cloud Bigtableにデータを読み込む方法
- 4. Google Cloud機能BigQueryへのアクセス
- 5. Google Cloud StorageからBigQueryにデータを読み込む
- 6. MicrosoftSQLServerからGoogle BigQueryにデータをアップロード
- 7. MongoDBからGoogle Cloud Datastoreへ
- 8. Google Cloudへのデータ移行
- 9. Google BigQueryでCloud Datalabに参加する
- 10. Pythonでデータフローパイプラインを使用してGoogle DatastoreからBigqueryへのデータ転送
- 11. BigQueryからGoogle Cloud Storageにテーブルをエクスポートできません
- 12. Kubernetes EngineからCloud StorageからBigQueryへデータをアップロードする方法を教えてください。
- 13. BigQuery select文をGoogle Cloud SQLデータベーステーブル
- 14. firestoreからbigQueryへのデータのインポート
- 15. teradataからbigqueryへのデータ移行
- 16. URLからGoogle Cloudのデータをアップロード
- 17. JSONからGoogle Cloud Datastoreにデータをロード
- 18. Google CloudのETL - (データフローvs.バッチバッチ) - > BigQuery
- 19. Cloud SQLからBigQueryテーブルを照会
- 20. iOSマップキットからGoogleマップへ
- 21. Google CloudからBigQueryへのデッドアップデータの追加を自動化する最も簡単な方法
- 22. Google Cloud DatalabのBigQuery - クエリテキストを取得しますか?
- 23. Ionic 2 - サーバーからアプリケーションへデータをプッシュ
- 24. DjangoアプリからAndroidアプリへデータをプッシュ
- 25. BigQueryまたはCloud Storage GCSのデータをDataprocに読み取る
- 26. BigQueryでデータを保存する場所
- 27. ローカルのJupyterノートブックからGoogle BigQueryデータにアクセスする
- 28. あるプロジェクトのGoogle Cloud Storageバックアップから別のプロジェクトのBigQueryにロード
- 29. google appengineのbigqueryにデータをストリームする
- 30. AppServiceからClientプロジェクトへのデータのプッシュ
あなたの答えをありがとう!最後の2つのオプションについては、毎日1回だけでなく、オンデマンドでデータを送信する必要があるため、すでに検討していました。しかし、 'BigQuery'のテーブルに複数の行を投稿したい場合、この投稿要求がどのように表示されるべきかを理解できないようです。もし 'name' - >' STRING'と 'Age' - >' INTEGER'の2つのカラムを持つテーブルを持っていたとしたら、この投稿要求がどうなるかの簡単な例を作ることができますか?ご協力いただきありがとうございます! –
Googleにリンクされたドキュメントの例があります。「例:マルチパートのアップロード」のセクションのPOSTリクエストをご覧ください(https://cloud.google.com/bigquery/loading-data-post-request)。代わりに、[ストリーミングAPI](https://cloud.google.com/bigquery/docs/reference/rest/v2/tabledata/insertAll)がありますが、[Googleではバッチリクエストを推奨します](https://cloud.google。一度に〜500レコードを挿入します(「要求ごとの最大行数」のテキストを参照してください)。 これらのAPIのいずれかを使用して完全に実践された例についての質問は、大きな追跡調査を行うでしょう。質問。 –