2017-09-06 4 views
1

私は昨日、宝石から輝くまでに私の開発会社Cephクラスターを更新しました。私がこのコマンド "ceph osd require-osd-release luminous"を実行するまで、すべては一見大丈夫でした。その後、私のクラスタ内のデータは完全に不明です。与えられたpgの詳細ビューを表示すると、 "active + clean"と表示されます。クラスターは、彼らが劣化して汚れていると思っています。ここで私は見ていますものです:Ceph Update後のデータが100%不明

CRUSHのMAP

-1  10.05318 root default        
-2  3.71764  host cephfs01       
0  0.09044   osd.0   up 1.00000 1.00000 
1  1.81360   osd.1   up 1.00000 1.00000 
2  1.81360   osd.2   up 1.00000 1.00000 
-3  3.62238  host cephfs02       
3 hdd 1.81360   osd.3   up 1.00000 1.00000 
4 hdd 0.90439   osd.4   up 1.00000 1.00000 
5 hdd 0.90439   osd.5   up 1.00000 1.00000 
-4  2.71317  host cephfs03       
6 hdd 0.90439   osd.6   up 1.00000 1.00000 
7 hdd 0.90439   osd.7   up 1.00000 1.00000 
8 hdd 0.90439   osd.8   up 1.00000 1.00000 

HEALTH

cluster: 
    id:  279e0565-1ab4-46f2-bb27-adcb1461e618 
    health: HEALTH_WARN 
      Reduced data availability: 1024 pgs inactive 
      Degraded data redundancy: 1024 pgs unclean 

    services: 
    mon: 2 daemons, quorum cephfsmon02,cephfsmon01 
    mgr: cephfsmon02(active) 
    mds: ceph_library-1/1/1 up {0=cephfsmds01=up:active} 
    osd: 9 osds: 9 up, 9 in; 306 remapped pgs 

    data: 
    pools: 2 pools, 1024 pgs 
    objects: 0 objects, 0 bytes 
    usage: 0 kB used, 0 kB/0 kB avail 
    pgs:  100.000% pgs unknown 
      1024 unknown 

HEALTH_WARN

低減されたデータの可用性:1024のPGS非アクティブ;データ冗長性の低下:1024 pgs不明 PG_AVAILABILITYデータ可用性の低下:1024 pgs inactive pg 1.e6が2239.530584で停止しています。現在の状態が不明で、最後に動作しています。 pg 1.e8が2239.530584で停止しています。 のPG 1.e9が最後の演技は[]

、現在の状態が不明、2239.530584非アクティブ立ち往生している最後の演技は[]これは、クラスタ内のすべてのPGのためにこのようになります。

PG詳細

"stats": { 
       "version": "57'5211", 
       "reported_seq": "4527", 
       "reported_epoch": "57", 
       "state": "active+clean", 

私はこのために、PGSかのOSD上のスクラブや修復を実行することはできません。

のCEPH OSD修復osd.0 は、OSD(Sに指示することができませんでした)0修理(接続されていない)

アイデア?

答えて

1

問題はファイアウォールでした。私は各ホスト上のファイアウォールをバウンスし、すぐにpgsが見つかりました。

関連する問題