注:マイクLococoこの回答のコメントで指摘したように - この答えは、設定プロファイル値を更新するために働くかもしれませんが、デフォルト設定を刺激するために書かれているそれらの値でますない結果.conf .conf。
次は解決策ではありません。
できます。 LCM Config Profile API(https://docs.datastax.com/en/opscenter/6.0/api/docs/lcm_config_profile.html#lcm-config-profile)を使用して設定プロファイルを更新する必要があります。 、更新が必要な特定の設定プロファイル用のhrefを取得し、それを要求し、ファイルへのレスポンスボディを保存
$ curl http://localhost:8888/api/v1/lcm/config_profiles
:
$ curl http://localhost:8888/api/v1/lcm/config_profiles/026fe8e3-0bb8-49c1-9888-8187b1624375 > profile.json
まず、更新する必要のある設定プロファイルを識別する
"spark-defaults-conf": {
"spark-cores-max": 4,
"spark-python-worker-memory": "2g",
"spark-ssl-enabled": false,
"spark-drivers-memory": "2g",
"spark-executor-memory": "4g"
}
:あなたは次のキーを含めるように
json > spark-defaults-conf
でキーを追加したり、編集したばかりに保存
profile.json
ファイル、で今
、
profile.json
を保存します。最後に、編集したファイルをリクエストデータとして使用して、同じ設定プロファイルURLにHTTP PUTを実行します。
$ curl -X PUT http://localhost:8888/api/v1/lcm/config_profiles/026fe8e3-0bb8-49c1-9888-8187b1624375 -d @profile.json
Lifecycle Managerの開発者はここにあります。私はこれがあなたが望むことをしていると懐疑的だ。これにより、config-profileにフィールドが追加され、API経由でエコーバックされますが、ターゲットノードには書き込まれません。 spark-defaults.confはテンプレートベースであり、サポートされていないキーは無視されます。可能なキーの一覧は、/etc/opscenterd/definitions/spark-defaults-conf/dse/spark-defaults-conf-dse-5.0.2.templateにあります。 OPSC-10290の改善要求を提出しました。これらのキーのサポートを追加し、提供されたすべてのキーをループする可能性を考慮して、可能なすべてのオプションを設定できます。 –