RAID ARRAY ist inaktiv

  • Hallo Leute,

    Ich betreibe ein NAS mit einer SSD System Disk und einem Raid 5 Verbund aus 4 Platten. OS ist Debian Buster, NAS Software ist OMV 5. Mein ITX Board hat 4 SATA III Steckplätze, ein zusätzlicher SATA Controller (PCI E) noch mal 4 SATA III Ports.


    Für den Einbau von zwei zusätzlichen Platten musste ich leider Strom & SATA Kabel entfernen, danach wieder genau so angesteckt, gab trotzdem ein ziemliches Durcheinander mit den Festplatten (Bezeichner/Laufwerk), jetzt zeigt mir OMV unter den Laufwerken wieder die richtige Reihenfolge an,wobei "richtig" da bin ich mir nicht sicher. Ich meine die Reihenfolge der Laufwerksbezeichner stimmt wieder.


    Bevor ich aber eine der neuen Platten als Erweiterung, die zweite als Hot Spare dem RAID zuweisen kann, muss ich das RAID Array wieder zum laufen bekommen. Hier hakt es aber,da könnte ich etwas Hilfe gebrauchen. Wie gehe ich vor ? In einem Thread hier wurden dafürein paarAngaben verlangt, die ich hier mal einfüge.


    cat /proc/mdstat

    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]

    [raid4] [raid10]

    md127 : inactive sdb[2](S) sdc[0](S) sde[1](S) sdd[3](S)

    11720548192 blocks super 1.2


    blkid


    /dev/sda1: UUID="11971546-ad43-4715-be84-fb2117a59e11" TYPE="ext4" PARTUUID="a66bc276-01"

    /dev/sda5: UUID="b21f2190-1c2f-4786-ad55-fdb6e67a616b" TYPE="ext4" PARTUUID="a66bc276-05"

    /dev/sda6: UUID="01e974bf-4c71-4d05-a26b-943bc7e13ba2" TYPE="swap" PARTUUID="a66bc276-06"

    /dev/sda7: UUID="fc414f16-fcfb-4a27-b152-ff76a8acdff0" TYPE="ext4" PARTUUID="a66bc276-07"

    /dev/sda8: UUID="77d92ac7-9b5a-468c-ab55-f80f61b6e79c" TYPE="ext4" PARTUUID="a66bc276-08"

    /dev/sdb: UUID="012a11bc-bce8-c44a-f036-c177460a832e" UUID_SUB="d3b8b37d-ddca-a70d-b581-b091e195ad72" LABEL="openmediavault:NAS" TYPE="linux_raid_member"

    /dev/sdd: UUID="012a11bc-bce8-c44a-f036-c177460a832e" UUID_SUB="5def3075-26ce-76f7-d74a-204b4631afa5" LABEL="openmediavault:NAS" TYPE="linux_raid_member"

    /dev/sde: UUID="012a11bc-bce8-c44a-f036-c177460a832e" UUID_SUB="034bda2d-eb82-de29-3aef-d977ebf0ceeb" LABEL="openmediavault:NAS" TYPE="linux_raid_member"

    /dev/sdc: UUID="012a11bc-bce8-c44a-f036-c177460a832e" UUID_SUB="379dceec-ea33-269f-43aa-afbf2a0040f0" LABEL="openmediavault:NAS" TYPE="linux_raid_member"


    fdisk -l | grep "Disk"

    Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors

    Disk model: WDC WD30EFRX-68E

    Disk /dev/sda: 232.9 GiB, 250059350016 bytes, 488397168 sectors

    Disk model: SanDisk SDSSDH3

    Disklabel type: dos

    Disk identifier: 0xa66bc276

    Disk /dev/sdd: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors

    Disk model: WDC WD30EFRX-68E

    Disk /dev/sde: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors

    Disk model: WDC WD30EFRX-68E

    Disk /dev/sdc: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors

    Disk model: WDC WD30EFRX-68E


    mdadm --detail --scan --verbose

    mdadm: Unknown keyword INACTIVE-ARRAY

    INACTIVE-ARRAY /dev/md127 num-devices=4 metadata=1.2

    name=openmediavault:NAS UUID=012a11bc:bce8c44a:f036c177:460a832e

    devices=/dev/sdb,/dev/sdc,/dev/sdd,/dev/sde


    sda ---> SSD (System, Debian Buster, OMV 5)

    sdb, sdc, sde, sdd --> HDD (RAID 5)


    OMV meldet:

    /dev/disk/by-label/NAS xfs gesamt: n/v verfügbar: n/v verwendet: n/v nicht eingebunden referenziert: ja Status: fehlend

    In der RAID Verwaltung von OMV (WebGUI) taucht das Raid nicht (mehr) auf.

    In der mdadm.conf steht folgender Eintrag drin:

    INACTIVE-ARRAY /dev/md127 metadata=1.2 name=openmediavault:NAS UUID=012a11bc:bce8c44a:f036c177:460a832e

    ARRAY /dev/md/NAS metadata=1.2 UUID=012a11bc:bce8c44a:f036c177:460a832e name=openmediavault:NAS




    Vielen Dank im Voraus

    6.7.0-3 (Shaitan) Prozessor: Intel® Pentium® CPU N3700 @ 1.60GHz Kernel: Linux 6.1.0-0.deb11.7-amd64

    Einmal editiert, zuletzt von PRITT ()

    • Offizieller Beitrag

    mdadm --stop /dev/md127


    mdadm --assemble --force --verbose /dev/md127 /dev/sd[bcde]

    Raid is not a backup! Would you go skydiving without a parachute?


    OMV 6x amd64 running on an HP N54L Microserver

  • Is nich wahr ! Thats all ? Ganz grosses Dankeschön ...


    ich hatte das einzeln versucht mit den laufwerken ... also nicht das assembling, sondern add

    6.7.0-3 (Shaitan) Prozessor: Intel® Pentium® CPU N3700 @ 1.60GHz Kernel: Linux 6.1.0-0.deb11.7-amd64

    Einmal editiert, zuletzt von PRITT ()

  • PRITT

    Hat das Label gelöst hinzugefügt.
  • Hi zusammen.


    Bei mir klappt das gar nicht ..


    blkid vor dem Crash:


    /dev/sdb: TYPE="isw_raid_member"

    /dev/sda: TYPE="isw_raid_member"

    /dev/sdd: TYPE="isw_raid_member"

    /dev/sde: TYPE="isw_raid_member"

    /dev/sdc: TYPE="isw_raid_member"

    /dev/sdi1: UUID="E188-A05A" TYPE="vfat" PARTUUID="4ca577a6-f7d1-4352-a434-8fdcddad15d6"

    /dev/sdi2: UUID="d249ac02-ee89-4876-8c41-05baccc7257d" TYPE="ext4" PARTUUID="c308beb3-e9ed-473f-8ba6-678c53b43b64"

    /dev/sdi3: UUID="91d27dc7-fdd9-4d4c-90fb-ff8a78bad686" TYPE="swap" PARTUUID="9fe8c9ec-1651-40fc-9169-e23299f5037e"

    /dev/sdh: TYPE="isw_raid_member"

    /dev/md126: LABEL="OMV02" UUID="56077e47-3ca6-422e-83a5-c36e9e5ae262" TYPE="ext4"

    /dev/sdf: TYPE="isw_raid_member"

    /dev/md124: LABEL="OMV01" UUID="211dcf9e-32ac-4f2e-a69e-0ab0d4c26046" TYPE="xfs"

    /dev/sdk1: LABEL_FATBOOT="BAPORT" LABEL="BAPORT" UUID="8BAD-6E20" TYPE="vfat" PARTUUID="2d077578-01"


    blkid nach dem Crash:


    /dev/sdb: TYPE="isw_raid_member"

    /dev/sda: TYPE="isw_raid_member"

    /dev/sdc: TYPE="isw_raid_member"

    /dev/sdd: TYPE="isw_raid_member"

    /dev/sde: TYPE="isw_raid_member"

    /dev/sdg: TYPE="isw_raid_member"

    /dev/sdf: TYPE="isw_raid_member"

    /dev/sdh: TYPE="isw_raid_member"

    /dev/sdi1: UUID="E188-A05A" TYPE="vfat" PARTUUID="4ca577a6-f7d1-4352-a434-8fdcddad15d6"

    /dev/sdi2: UUID="d249ac02-ee89-4876-8c41-05baccc7257d" TYPE="ext4" PARTUUID="c308beb3-e9ed-473f-8ba6-678c53b43b64"

    /dev/sdi3: UUID="91d27dc7-fdd9-4d4c-90fb-ff8a78bad686" TYPE="swap" PARTUUID="9fe8c9ec-1651-40fc-9169-e23299f5037e"

    /dev/md126: LABEL="OMV02" UUID="56077e47-3ca6-422e-83a5-c36e9e5ae262" TYPE="ext4"

    /dev/sdj1: LABEL_FATBOOT="BAPORT" LABEL="BAPORT" UUID="8BAD-6E20" TYPE="vfat" PARTUUID="2d077578-01"




    Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]

    md124 : inactive sdd[0](S)

    5201 blocks super external:imsm


    md125 : inactive sda[2](S) sdc[1](S) sdb[0](S)

    15603 blocks super external:imsm


    md126 : active raid5 sde[3] sdf[2] sdg[1] sdh[0]

    1425328128 blocks super external:/md127/0 level 5, 64k chunk, algorithm 0 [4/4] [UUUU]


    md127 : inactive sdf[3](S) sde[2](S) sdg[1](S) sdh[0](S)

    20804 blocks super external:imsm


    unused devices: <none>

    /dev/sdc: TYPE="isw_raid_member"

    /dev/sdd: TYPE="isw_raid_member"

    /dev/sdb: TYPE="isw_raid_member"

    /dev/sda: TYPE="isw_raid_member"

    /dev/sdi1: UUID="E188-A05A" TYPE="vfat" PARTUUID="4ca577a6-f7d1-4352-a434-8fdcddad15d6"

    /dev/sdi2: UUID="d249ac02-ee89-4876-8c41-05baccc7257d" TYPE="ext4" PARTUUID="c308beb3-e9ed-473f-8ba6-678c53b43b64"

    /dev/sdi3: UUID="91d27dc7-fdd9-4d4c-90fb-ff8a78bad686" TYPE="swap" PARTUUID="9fe8c9ec-1651-40fc-9169-e23299f5037e"

    /dev/sdf: TYPE="isw_raid_member"

    /dev/sdg: TYPE="isw_raid_member"

    /dev/sdh: TYPE="isw_raid_member"

    /dev/md126: LABEL="OMV02" UUID="56077e47-3ca6-422e-83a5-c36e9e5ae262" TYPE="ext4"

    /dev/sde: TYPE="isw_raid_member"

    /dev/sdj1: LABEL_FATBOOT="BAPORT" LABEL="BAPORT" UUID="8BAD-6E20" TYPE="vfat" PARTUUID="2d077578-01"

    Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors

    Disk model: ST1000LM048-2E71

    Disk /dev/sdd: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors

    Disk model: ST1000LM048-2E71

    Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors

    Disk model: ST1000LM048-2E71

    Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors

    Disk model: ST1000LM048-2E71

    Disk /dev/sdi: 111.8 GiB, 120034123776 bytes, 234441648 sectors

    Disk model: KINGSTON SA400S3

    Disk identifier: 13E49CA9-3307-4F61-AD06-C09928FBC2FF

    Disk /dev/sdf: 477 GiB, 512110190592 bytes, 1000215216 sectors

    Disk model: INTENSO

    Disk /dev/sdg: 477 GiB, 512110190592 bytes, 1000215216 sectors

    Disk model: INTENSO

    Disk /dev/sdh: 477 GiB, 512110190592 bytes, 1000215216 sectors

    Disk model: INTENSO

    Disk /dev/sde: 477 GiB, 512110190592 bytes, 1000215216 sectors

    Disk model: INTENSO

    Disk /dev/md126: 1.3 TiB, 1459536003072 bytes, 2850656256 sectors

    Disk /dev/sdj: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors

    Disk model:

    Disk identifier: 0x2d077578

    # This file is auto-generated by openmediavault (https://www.openmediavault.org)

    # WARNING: Do not edit this file, your changes will get lost.


    # mdadm.conf

    #

    # Please refer to mdadm.conf(5) for information about this file.

    #


    # by default, scan all partitions (/proc/partitions) for MD superblocks.

    # alternatively, specify devices to scan, using wildcards if desired.

    # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.

    # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is

    # used if no RAID devices are configured.

    DEVICE partitions


    # auto-create devices with Debian standard permissions

    CREATE owner=root group=disk mode=0660 auto=yes


    # automatically tag new arrays as belonging to the local system

    HOMEHOST <system>

    # instruct the monitoring daemon where to send mail alerts

    MAILADDR [email='mail'][/email]

    MAILFROM root


    # definitions of existing MD arrays

    ARRAY /dev/md/imsm0 metadata=imsm UUID=bee9a43a:951ce7c0:4d5aab31:f78997d1

    ARRAY /dev/md/imsm1 metadata=imsm UUID=22ee0327:126df504:9a7ef926:0ed2aa09

    ARRAY /dev/md/Volume1 container=/dev/md/imsm0 member=0 UUID=5cf091bb:c04bf34b:810b2494:a947f254

    ARRAY /dev/md/Volume0 container=/dev/md/imsm1 member=0 UUID=a892434b:9d61e398:1b3173c9:6706a54f

    ARRAY /dev/md/imsm0 level=container num-devices=4 metadata=imsm UUID=bee9a43a:951ce7c0:4d5aab31:f78997d1

    devices=/dev/sde,/dev/sdf,/dev/sdg,/dev/sdh

    ARRAY /dev/md/imsm1 level=container num-devices=3 metadata=imsm UUID=22ee0327:126df504:9a7ef926:0ed2aa09

    devices=/dev/sda,/dev/sdb,/dev/sdc

    ARRAY /dev/md/imsm2 level=container num-devices=1 metadata=imsm UUID=6d35a98d:14fe6843:cb9ff33d:fac8180a

    devices=/dev/sdd

    ARRAY /dev/md/Volume1 level=raid5 num-devices=4 container=/dev/md/imsm0 member=0 UUID=5cf091bb:c04bf34b:810b2494:a947f254

    devices=/dev/sde,/dev/sdf,/dev/sdg,/dev/sdh


    raid_controller.info.txt

    raid_error.txt

    raid_sd_abcd.status.txt

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!