ceph

    0

    1答えて

    ローカルceph(バージョン10.2.7)とkubernetes v1.6.5を別々のクラスタで実行しています。 PVとPVMの使用クレームは、rbdデバイスをポッドにマウントすることでした。 動的プロビジョニング用のcephストレージクラスを使用するように設定するとします。そのpvclaimのための以下のエラーを与える。 E0623 00:22:30.520160 1 rbd.go:317]

    0

    1答えて

    私は小さなCephクラスターを持っています。それが設定されている方法は、ここで説明されています https://www.theo-andreou.org/?p=1750 を(NTPサーバがホストされている)を展開ノードの再起動後、私は得る: ceph health; ceph osd tree HEALTH_ERR 370 pgs are stuck inactive for more than

    0

    1答えて

    良い日。 私はドッカー群ノードのためにいくつかの永続ストレージを探しています。 Cephはよく見えますが、どのようにノードを接続するのですか? RBDの場合、クラスタFSが必要になります。 CephFSはどうですか、ドッカーの群れにはいいのですか?

    0

    1答えて

    は、次のような問題を満たし、adding-monitorステップで、公式quick-ceph-deployに従ってください: [[email protected] my-cluster]$ ceph-deploy mon add node2 [ceph_deploy.conf][DEBUG ] found configuration file at: /home/ubuntu/.cephdepl

    0

    3答えて

    私はproxmoxを実行していますが、私が間違って作成したプールを削除しようとすると、プールの 'mon_allow_pool_delete configオプションをtrueに削除します。 それはこのエラーを与え続けただし: mon_command failed - pool deletion is disabled; you must first set the mon_allow_pool_d

    0

    1答えて

    私は、gitlab、redis、およびcegressをcephの永続ボリュームで実行しているkubernetesを持っています。 今日gitlabポッドがリセットされ、PVCのマウントに失敗しました。 私はpersistentVolumeClaimに関連する全てを嫌っていましたが、それでもまだFailedの状態で私はinitに新しいPVCをブロックしているようです。 kubectl get pv

    0

    1答えて

    Heketiを使用してGlusterでKubernetesをセットアップしようとしています。いくつかの試行の後、私はまだそれを働かせることができません。私はKubernetesを管理しているRancherOSアプリケーションをRancherOSで使用しています。私は現在、代替アプローチを探しています。スタンドアロンRHELホスト上の 1)セットアップGlusterFSとHeketi:この場合 、私

    1

    1答えて

    私は昨日、宝石から輝くまでに私の開発会社Cephクラスターを更新しました。私がこのコマンド "ceph osd require-osd-release luminous"を実行するまで、すべては一見大丈夫でした。その後、私のクラスタ内のデータは完全に不明です。与えられたpgの詳細ビューを表示すると、 "active + clean"と表示されます。クラスターは、彼らが劣化して汚れていると思っていま

    0

    1答えて

    私はテストクラスタを設定し、documentationに従います。 コマンドceph-deploy new node1でクラスタを作成しました。その後、ホスト名node1のノード上のモニタに関する情報を含む現在のディレクトリにceph設定ファイルが表示されます。次に、2つのOSDをクラスタに追加しました。 これで、1台のモニターと2台のOSDを持つクラスターが作成されました。 ceph statu