私は昨日、宝石から輝くまでに私の開発会社Cephクラスターを更新しました。私がこのコマンド "ceph osd require-osd-release luminous"を実行するまで、すべては一見大丈夫でした。その後、私のクラスタ内のデータは完全に不明です。与えられたpgの詳細ビューを表示すると、 "active + clean"と表示されます。クラスターは、彼らが劣化して汚れていると思っています。ここで私は見ていますものです:Ceph Update後のデータが100%不明
CRUSHのMAP
-1 10.05318 root default
-2 3.71764 host cephfs01
0 0.09044 osd.0 up 1.00000 1.00000
1 1.81360 osd.1 up 1.00000 1.00000
2 1.81360 osd.2 up 1.00000 1.00000
-3 3.62238 host cephfs02
3 hdd 1.81360 osd.3 up 1.00000 1.00000
4 hdd 0.90439 osd.4 up 1.00000 1.00000
5 hdd 0.90439 osd.5 up 1.00000 1.00000
-4 2.71317 host cephfs03
6 hdd 0.90439 osd.6 up 1.00000 1.00000
7 hdd 0.90439 osd.7 up 1.00000 1.00000
8 hdd 0.90439 osd.8 up 1.00000 1.00000
HEALTH
cluster:
id: 279e0565-1ab4-46f2-bb27-adcb1461e618
health: HEALTH_WARN
Reduced data availability: 1024 pgs inactive
Degraded data redundancy: 1024 pgs unclean
services:
mon: 2 daemons, quorum cephfsmon02,cephfsmon01
mgr: cephfsmon02(active)
mds: ceph_library-1/1/1 up {0=cephfsmds01=up:active}
osd: 9 osds: 9 up, 9 in; 306 remapped pgs
data:
pools: 2 pools, 1024 pgs
objects: 0 objects, 0 bytes
usage: 0 kB used, 0 kB/0 kB avail
pgs: 100.000% pgs unknown
1024 unknown
HEALTH_WARN
低減されたデータの可用性:1024のPGS非アクティブ;データ冗長性の低下:1024 pgs不明 PG_AVAILABILITYデータ可用性の低下:1024 pgs inactive pg 1.e6が2239.530584で停止しています。現在の状態が不明で、最後に動作しています。 pg 1.e8が2239.530584で停止しています。 のPG 1.e9が最後の演技は[]
、現在の状態が不明、2239.530584非アクティブ立ち往生している最後の演技は[]これは、クラスタ内のすべてのPGのためにこのようになります。
PG詳細
"stats": {
"version": "57'5211",
"reported_seq": "4527",
"reported_epoch": "57",
"state": "active+clean",
私はこのために、PGSかのOSD上のスクラブや修復を実行することはできません。
のCEPH OSD修復osd.0 は、OSD(Sに指示することができませんでした)0修理(接続されていない)
アイデア?