0

Google Cloud Dataprocを使用してsparkJobを実行しています。 クラスタに対応するすべてのジョブとその状態のリストを取得する必要があります。Dataprocクライアント:googleapiclient:クラスタ内のすべてのジョブ(runnng、stoppedなど)のリストを取得するメソッド

私がJOB_IDを知っていれば私は

res = dpclient.dataproc.projects().regions().jobs().get(
      projectId=project, 
      region=region, 
      jobId="ab4f5d05-e890-4ff5-96ef-017df2b5c0bc").execute() 

の下に、ジョブのステータスを取得することができます。しかし、私がJOB_IDを知らないし、すべてのジョブ

の状況を知りたい場合はどのような

clusterName = 'cluster-1' 
res = dpclient.dataproc.projects().regions().jobs().list(
     projectId=project, 
     region=region, 
     clusterName=clusterName).execute() 

しかし、これが唯一現在も存在してクラスターによってリストをサポートしていることに注意してください;:クラスタ内のジョブを一覧表示するには

答えて

0

は、あなたがlist()メソッドを使用することができますあなたがclusterNameを渡しても、これはユニークなcluster_uuidに解決されます。これは、同じ名前の複数のクラスタを作成した場合でも、各インカネーションは引き続き別のクラスタとみなされるため、現在実行中のバージョンのclusterNameでのみジョブのリストが実行されます。これは意図的なものです.は、さまざまな目的で人によって再利用されることが多く(特に、cloud.google.com/consoleで作成されたデフォルトの生成された名前を使用する場合)、実際には異なる実際のクラスタインスタンスに送信されたジョブは、その他。

将来、求人リストのフィルタオプションが増えます。

関連する問題