2016-11-30 16 views
0

気流ワークフロースケジューラが本当に好きですが、単純なDAGを実行中にエラーが発生しました: "{jobs.py:538} DAG:TEST_SCHEDULER_DAG "に対してデッドロックされています。Airflow - BashOperator:「DAG実行がDAGのデッドロックになっています:..」エラー

これは新しいエアフローインストール(v1.7.1.3)で、他のスケジュール済みのdagファイルを正常に実行できました。私の環境はLinux(ubuntu 16.04)、python 2.7.12(anaconda)、postgresql 9.5.5、LocalExecutorを使用しています。

from airflow import DAG 
from airflow.operators import BashOperator 
from datetime import datetime, timedelta 

default_args = { 
    'owner': 'owner.name', 
    'depends_on_past': True, 
    'start_date': datetime(2016, 11, 30, 8, 0, 0), 
    'retries': 0, 
    'retry_delay': timedelta(seconds=60), 
} 

tst_dag = DAG(dag_id='TEST_SCHEDULER_DAG', 
       default_args=default_args, 
       schedule_interval='10 * * * *') 

t1 = BashOperator(
    task_id='task_1', 
    bash_command='sleep 10', 
    dag=tst_dag) 

t2 = BashOperator(
    task_id='task_2', 
    bash_command='sleep 10',     
    dag=tst_dag) 

t2.set_upstream(t1) 

は再び、最初の実行は正常に動作しますが、後続のすべての実行が(DagRun)「は失敗した」として表示して

私は「デッドロックを参照してください。ある上

DAGは、私はデッドロックエラーを取得しています'エラーが表示されます。

ありがとうございました!

+1

旧投稿ですが、同じ問題がありました。 depends_on_pastがTrueであるため、start_dateの前にexecution_dateを指定してコマンドラインでtrigger_dagを実行しようとすると、デッドロックになります。 depends_on_pastをFalseに設定すると、私のために解決されました。バックフィルの場合と同じ動作である可能性があります。 –

答えて

0

dag_runテーブルからdagsエントリを削除し、その後にスケジューラを再起動してからお試しください。

関連する問題