私はデータフローチームのエンジニアの一人です。
コマンドラインツールを使用してこれらのメトリックを一覧表示し、出力文字列からメトリックを解析し、それらに基づいてコストを計算するスクリプトを作成することをおすすめします。これを多くのジョブで実行したい場合は、gcloudのベータデータフロージョブリストを使用してジョブをリストすることもできます。私たちはこれを将来的に入手しやすくするためのソリューションに取り組んでいます。
gcloud 135.0を使用していることを確認してください。0+:あなたの仕事を実行しているプロジェクトへのアクセス権を持つアカウントで
gcloud components update
ログイン:
gcloud version
あなたは使用してそれを更新することができない場合は
cloud auth login
をあなたのプロジェクトを設定し
gcloud config set project <my_project_name>
実行
gcloud beta dataflow metrics list <job_id> --project=<my_project_name> | grep Service -B 1 -A 3
あなたの結果はそうのような構造する必要があります:
name:
name: Service-mem_mb_seconds
origin: dataflow/v1b3
scalar: 192001
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-pd_ssd_gb_seconds
origin: dataflow/v1b3
scalar: 0
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-cpu_num
origin: dataflow/v1b3
scalar: 0
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-pd_gb
origin: dataflow/v1b3
scalar: 0
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-pd_gb_seconds
origin: dataflow/v1b3
scalar: 12500
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-cpu_num_seconds
origin: dataflow/v1b3
scalar: 50
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-pd_ssd_gb
origin: dataflow/v1b3
scalar: 0
updateTime: '2016-11-07T21:23:46.452Z'
--
name:
name: Service-mem_mb
origin: dataflow/v1b3
scalar: 0
updateTime: '2016-11-07T21:23:46.452Z'
あなたのために関連するものは以下のとおりです。
- サービス-cpu_num_seconds
メトリックを一覧にし、リソースのメトリックをgrepするためにMAND
- Service-mem_mb_seconds
- Service-pd_gb_seconds
- サービス-pd_ssd_gb_seconds
注:これらのメトリック名がに、すぐに将来的に変更されます:
- TotalVCPUUsage
- TotalMemoryUsage
- TotalHDDPersistentDiskUsage
- TotalSSDPersistentDiskUsage
このまさに私が必要としていたものです。最新のgcloud sdk(135.0.0)にアップグレードした後は、正常に動作します! –
上記の指標を使用して費用をどのように計算しますか? – ghostcoder