0
ローカルに動作するpysparkクラスタがあり、大きなクエリからデータをロードしたい。 私はサーバー間のjson資格情報ファイルを生成しました これを私のコードにどのように渡すのですか? TIAローカルマシン上で実行されているpysparkからbigqueryへの資格情報の受け渡し方法
ローカルに動作するpysparkクラスタがあり、大きなクエリからデータをロードしたい。 私はサーバー間のjson資格情報ファイルを生成しました これを私のコードにどのように渡すのですか? TIAローカルマシン上で実行されているpysparkからbigqueryへの資格情報の受け渡し方法
ツールからGoogleのAPIと対話するためのコードを書くときに、使用するプロジェクト内でサービスアカウントの資格情報を生成し、ダウンロードして、その資格情報でクライアントを初期化します。
私はoauth2client.client.SignedJwtAssertionCredentials
を使用して資格情報を作成し、credentials
キーワードパラメータを使用してこれらの資格情報をapiclientコンストラクタに渡します。次のようなものがあります。
key_bytes = ... # read your downloaded key from somewhere
bigquery_service = discovery.build(
'bigquery', 'v2',
credentials=oauth2client.client.SignedJwtAssertionCredentials(
'[email protected]',
key_bytes,
['https://www.googleapis.com/auth/bigquery'],
private_key_password='notasecret',
user_agent=_CLIENT_USER_AGENT))
bigquery-serviceを使用するたびに、資格情報が渡されます。
ご質問ください。 BigQueryと対話する独自のPythonコネクタコードを作成したいと思うようです。そうでない場合は、次のようにBigQueryコネクタを使用することを検討してください:https://cloud.google.com/hadoop/examples/bigquery-connector-spark-example –