0
気流ワークフロースケジューラが本当に好きですが、単純なDAGを実行中にエラーが発生しました: "{jobs.py:538} DAG:TEST_SCHEDULER_DAG "に対してデッドロックされています。Airflow - BashOperator:「DAG実行がDAGのデッドロックになっています:..」エラー
これは新しいエアフローインストール(v1.7.1.3)で、他のスケジュール済みのdagファイルを正常に実行できました。私の環境はLinux(ubuntu 16.04)、python 2.7.12(anaconda)、postgresql 9.5.5、LocalExecutorを使用しています。
from airflow import DAG
from airflow.operators import BashOperator
from datetime import datetime, timedelta
default_args = {
'owner': 'owner.name',
'depends_on_past': True,
'start_date': datetime(2016, 11, 30, 8, 0, 0),
'retries': 0,
'retry_delay': timedelta(seconds=60),
}
tst_dag = DAG(dag_id='TEST_SCHEDULER_DAG',
default_args=default_args,
schedule_interval='10 * * * *')
t1 = BashOperator(
task_id='task_1',
bash_command='sleep 10',
dag=tst_dag)
t2 = BashOperator(
task_id='task_2',
bash_command='sleep 10',
dag=tst_dag)
t2.set_upstream(t1)
は再び、最初の実行は正常に動作しますが、後続のすべての実行が(DagRun)「は失敗した」として表示して
私は「デッドロックを参照してください。ある上DAGは、私はデッドロックエラーを取得しています'エラーが表示されます。
ありがとうございました!
旧投稿ですが、同じ問題がありました。 depends_on_pastがTrueであるため、start_dateの前にexecution_dateを指定してコマンドラインでtrigger_dagを実行しようとすると、デッドロックになります。 depends_on_pastをFalseに設定すると、私のために解決されました。バックフィルの場合と同じ動作である可能性があります。 –