2017-09-23 16 views
0

ポッドのイメージアップグレード中に、ポッドのいくつかがContainerCreating状態でスタックされています。イメージアップグレード後にKubernetesポッドがContainerCreating状態になっています

kubectl get events has below error: FailedSync kubelet, 10.102.10.34 Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "default"/"ob-service-1124355621-1th47". list of unattached/unmounted volumes=[timezone default-token-3x1x9]

ドッカーログ:

^[[31mERRO^[[0m[240242] Handler for DELETE /v1.22/containers/749d05b355e2b80bffb90d207232d37e3ebc5ff57942c46ce0a2b4ca5950ed0e returned error: Driver devicemapper failed to remove root filesystem 749d05b355e2b80bffb90d207232d37e3ebc5ff57942c46ce0a2b4ca5950ed0e: Device is Busy 
^[[31mERRO^[[0m[240242] Error saving dying container to disk: open /var/lib/docker/containers/5d01db2c31a3073cc7fb68f2be5acc45c34583d5f2ae0c0879ec064f90da6943/config.v2.json: no such file or directory 
^[[31mERRO^[[0m[240263] Error removing mounted layer 5d01db2c31a3073cc7fb68f2be5acc45c34583d5f2ae0c0879ec064f90da6943: Device is Busy 
+0

影響を受けるノードでドッカーサービスを再起動し、役立つかどうかを確認してください。 –

+0

ドッキング・ストップを止め、ドッキング・ディレクトリを取り除き、ドッキングを再開する –

+0

ドッキング・ステーションを停止し、kubeletサービスを再開しますが、より多くのポッドは同じ状態になります... –

答えて

1

それはあなたが提供する情報だけでデバッグするために少し難しいですが、あなたに探している必要があり、一般的な方向は、クラスタのリソースです。

通常、同期が失敗すると、ポッドがいずれのワーカーにもフィットしない場合があります(多分追加すると役立つかもしれません)。または、ビジー状態のボリュームに「接続」しようとしているようで、ポッドに失敗した接続を受け入れません。

もう一度詳細がわかりませんが、あなたがAWSにいると仮定して、マウント解除していないボリュームがあり、今度はそのボリュームに再度接続しようとしています。新しいポッドが接続できるように、ボリュームを取り外す必要があります。 同じ画像で大丈夫なポッドがあると言うと、ボリュームが不足していることや、現在のボリュームの一部が新しい接続を受け入れることができないことを意味しています(古いポッドを削除した

関連する問題