2016-06-01 3 views
1

当社のkubernetesクラスタにspinnakerを導入したいと考えています。 私はspinnakerのmasterブランチをクローンし、それに応じてspinnaker-localファイルを修正しました。内部のドッカーレジストリを使用するので、必要なイメージをドッカーハブから私たちのものにコピーしました。独自のkubernetesクラスタ内のspinnakerを起動すると、data-cassandra-keysでハングアップしますか?

"startup-all.sh"スクリプトを起動すると、赤目の画像が表示されるようです。 次に、cassandraデータベースを起動しようとします。ジョブ「data-cassandra-keys」の作成は完了しません。新しいポッドを繰り返し作成します。

私が使用して、いくつかのログを取得しようとしました:

c:\spinnaker\experimental\kubernetes>kubectl log data-cassandra-keys-w4yil 
W0601 16:20:02.457396 10336 cmd.go:207] log is DEPRECATED and will be removed in a future version. Use logs instead. 
Connecting to... 
172.23.77.106 
9042 
Connection error: ('Unable to connect to any servers', {'172.23.77.106': error(None, "Tried connecting to [('172.23.77.106', 9042)]. Last error: timed out")}) 
Failed to add keyspace create_echo_keyspace.cql 

をデータ・カサンドラ・鍵-XXXXXの数十があります - すべては新しいものを作成し続けて同じとkubernetesを示しています。私は(カサンドラを接続するためにどのようなホストを知っているか)、この作品を作るために変更する必要が設​​定かを把握することはできません

SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}") 

while [ $SUCCESS -ne "1" ]; do 
    SUCCESS=$(kubectl get job data-cassandra-keys --namespace=spinnaker -o=jsonpath="{.status.succeeded}") 
done 

起動スクリプトがで立ち往生しています。また、「データ・カンドンドラ・キー」の仕事がなぜ何度も何度も再現されているのかどうかも分かりません。

のイベントがいっぱいです:

6m  6m  1   data-cassandra-keys-sxp3o Pod           Normal Scheduled   {default-scheduler }   Successfully assigned data-cassandra-keys-sxp3o to ld9c0193.corp.test 
6m  6m  1   data-cassandra-keys-sxp3o Pod  spec.containers{cassandra-keys} Normal Pulled    {kubelet ld9c0193.corp.test} Container image "docker-registry.corp.ch/kubernetes-spinnaker/cassandra-keys:v2" already present on machine 
6m  6m  1   data-cassandra-keys-sxp3o Pod  spec.containers{cassandra-keys} Normal Created   {kubelet ld9c0193.corp.test} Created container with docker id 46de7bd5f425 
6m  6m  1   data-cassandra-keys-sxp3o Pod  spec.containers{cassandra-keys} Normal Started   {kubelet ld9c0193.corp.test} Started container with docker id 46de7bd5f425 

どこを見て起こっているかいただきました上の任意のヒントが高く評価され:)

感謝を!

答えて

1

"データカセットドラキー"ポッドはKubernetes Job Controllerによって再作成されますが、多すぎるデッドポッドの作成を避けるために、再起動ポリシーを変更する必要があります。 Cassandraはスタートアップに時間がかかることがあるため、しばらくの間再試行するため、キースペースを作成する最初の試行の後で失敗しないようにしてください。

既知の問題は、アクセス権の問題により永続ディスクを使用するように設定されていると、Cassandraが正しく起動しないことです。あなたはCassandraポッドのログをチェックしましたか?データ - キャッサンドラ-v000-xxxx

+0

ハロー。それは確かにレディスまたはカサンドラのいずれかのボリュームの問題でした。私はまた、コンテナの近くにimagePullSecrets:プロパティを追加しなければなりませんでした:いくつかのイメージは、私たちのレジストリから少しも引っ張られなかったので(私はいくつか見逃しました)。だから、起動スクリプトは現在、すべてを起動させようとしています。どうもありがとう! – wemu

関連する問題