• VNX5500, Storage Pool offline. Есть шанс поднять?

    Доброго дня!
    Столкнулись с похожей ситуацией offline пулов и лунов на EMC VNX5300.
    Имеем 2 пула из RAID-5 и RAID-10.

    1) Курили этот пост и др. инфу
    https://forum.ixbt.com/topic.cgi?id=7:45508-116
    https://www.dell.com/community/CLARiiON/Storage-po...
    dcinfrastructure.blogspot.com/2015/02

    2) Подцепились с сервисному порту, настроили IP 128.221.1.249/29
    3) Зашли на вебморду SPA 128.221.1.250:9516

    внутри 2008 винды EMC

    C:\EMC\Base\05320005.201\flare_driver\bin\flarecons.exe

    fcli> acc -m 1

    fcli> ls
    fcli> ls

    Logical Unit Summary:

    RAID LUN Dflt. Unit
    LUN Group Attr. Owner Type Capacity Cache State FRUs
    ---- ----- ----- ------ ------- -------- ----- ----- -------------
    0 124 GP SP-A RAID-1 364 MB R-- ENA:PEER 13 12
    1 124 GP SP-A RAID-1 364 MB R-- ENA 13 12
    2 124 GP SP-A RAID-1 45.5 GB RW- ENA 13 12
    3 124 GP SP-A RAID-1 45.4 GB RW- ENA 13 12

    ...(пропущено)

    34 120 GP SP-A RAID-5 214.7 GB RD- RDY* 34 33 32 31 30
    35 120 GP SP-A RAID-5 214.7 GB RD- RDY* 34 33 32 31 30
    36 120 GP SP-A RAID-5 214.7 GB RD- RDY* 34 33 32 31 30


    т.о. есть у нас звезды (но вроде как нет ERR). Однако на тех LUNах и 3-х RAID-группах 107, 116, 117 ,
    что в нужном НАМ ДЛЯ ПОДНЯТИЯ пуле на RAID-10 их не видно:
    spoiler

    64 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    65 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    66 117 GP SP-B RAID-10 134.2 GB RW- RDY 26 28 27 29
    67 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    68 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    69 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    70 117 GP SP-B RAID-10 134.2 GB RD- RDY 26 28 27 29
    71 117 GP SP-B RAID-10 133.5 GB RD- RDY 26 28 27 29
    72 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    73 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    74 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    75 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    76 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    77 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    78 116 GP SP-A RAID-10 458.6 GB RW- ENA 51 53 52 54
    79 116 GP SP-A RAID-10 456.8 GB RW- ENA 51 53 52 54

    ...(пропущено)

    139 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    140 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    141 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    142 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    143 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    144 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    145 107 GP SP-B RAID-10 205.1 GB RD- RDY 86 88 87 89
    146 107 GP SP-B RAID-10 204.2 GB RW- RDY 86 88 87 89


    Согласно
    dcinfrastructure.blogspot.com/2015/02/clariion-vnx...

    В C:\EMC\MLUEngine\05320075.201\msgbin\mlucli.exe вводили

    mlucli objectops -b_careful -info -oid

    Вывод по RAID-10 пуллу, команда objectops -b_careful -info 0x300000004
    spoiler

    MLU OBJECT INFO:
    Private State: 4
    Public State: Error
    Target State: Ready
    OwnerShip Model: Object Mgr Controlled
    Leader Object: 0x0
    Status: 0xe12d8514
    Existant Dependent Objs: 28
    0x40000009e
    0x40000009f
    0x4000000a0
    0x4000000a1
    0x4000000a2
    0x4000000a3
    0x4000000a4
    0x4000000a5
    0x4000000a6
    0x4000000a7
    0x4000000a8
    0x4000000a9
    0x4000000aa
    0x4000000ab
    0x4000000ac
    0x4000000ad
    0x20000000f
    0x200000006
    0x200000007
    0x200000008
    0x4000000f3
    0x4000000f4
    0x4000000f5
    0x4000000f6
    0x4000000f7
    0x4000000f8
    0x4000000f9
    0x4000000fa
    State Dependent Objs: 0

    Operation Completed Successfully.


    ну и по одному из Dependent FLU, команда objectops -b_careful -info 0x40000009E
    spoiler

    MLU OBJECT INFO:
    Private State: 4
    Public State: Error
    Target State: Ready
    OwnerShip Model: Follow Leader
    Leader Object: 0x300000004
    Status: 0xe12d8516
    Existant Dependent Objs: 0
    State Dependent Objs: 0

    Operation Completed Successfully.


    ~~~~~~~~
    т.о. у нас Public State: Error
    ~~~~~~~~

    команда mlucli mpoll

    spoiler
    ...(пропущено)

    Identification_Key : 0x300000004
    Identification_Name : RAID10-POOL
    Identification_Description :
    Identification_CreationTimestamp : 0x1CF5D7D72D0F228 Monday, April 21, 2014 16:19:19
    Identification_UserID : 0x1
    Association_DiskPool : 0x06000000050000000100000000000066
    Pool_DeltaToken : 0x1F2F0 (127728.)
    Pool_EFDCDesiredState : 0x3
    Pool_EFDCCurrentState : 0x3
    Pool_RaidType : 0x7
    Pool_LUChangeToken : 0x0 (0.)
    State_Current_State : 0x4
    State_Internal_State : 0x4
    State_Status : 0x712D8514

    ...(пропущено)

    FLU Info for 24 FLUs :
    FLU_OID : 0x40000009E
    FLU_WWN : 60:06:01:60:66:60:36:00:0C:07:E7:C2:70:C9:E3:11
    FLU_Name : \Device\CLARiiONdisk64
    FLU_State : 0x68 (104.)
    FLU_InternalState : 0x4
    FLU_Status : 0x0
    FLU_DeltaToken : 0x1EF36 (126774.)
    FLU_Volume_ID : 0x1F
    FLU_RaidGroup : 117.
    FLU_TierDescriptor : 0x1901
    FLU_NumberOfSlices : 0x0
    FLU_CoarseTierIndex : 0x1

    ...(пропущено)


    Q1: FLU_State : 0x68 (104.) - видимо и есть dirty cache?
    Q2: (только для LUN - со звездами или все-таки с Public State: Error?)
    flci>cld LUN#
    ждем процентовки

    Согласно dcinfrastructure.blogspot.com/2015/02
    команда mlucli clearcachedirty - -revid -wwn
    Q3: Что есть -revid. Это FLU_OID или что-то другое? Какой пароль -b_careful или -srvc_cmd (или какой-нибудь другой?)