2016-04-14 10 views
0

ローカルに動作するpysparkクラスタがあり、大きなクエリからデータをロードしたい。 私はサーバー間のjson資格情報ファイルを生成しました これを私のコードにどのように渡すのですか? TIAローカルマシン上で実行されているpysparkからbigqueryへの資格情報の受け渡し方法

+0

ご質問ください。 BigQueryと対話する独自のPythonコネクタコードを作成したいと思うようです。そうでない場合は、次のようにBigQueryコネクタを使用することを検討してください:https://cloud.google.com/hadoop/examples/bigquery-connector-spark-example –

答えて

0

ツールからGoogleのAPIと対話するためのコードを書くときに、使用するプロジェクト内でサービスアカウントの資格情報を生成し、ダウンロードして、その資格情報でクライアントを初期化します。

私はoauth2client.client.SignedJwtAssertionCredentialsを使用して資格情報を作成し、credentialsキーワードパラメータを使用してこれらの資格情報をapiclientコンストラクタに渡します。次のようなものがあります。

key_bytes = ... # read your downloaded key from somewhere 
bigquery_service = discovery.build(
    'bigquery', 'v2', 
    credentials=oauth2client.client.SignedJwtAssertionCredentials(
     '[email protected]', 
     key_bytes, 
     ['https://www.googleapis.com/auth/bigquery'], 
     private_key_password='notasecret', 
     user_agent=_CLIENT_USER_AGENT)) 

bigquery-serviceを使用するたびに、資格情報が渡されます。

関連する問題