RAID5 verschwunden - inactiv

  • Hallo,


    ich brauche mal hilfe meinen Raid5 wieder leben einzuhauchen.
    Das Raid aus 4 HDD´s war plötzlich verschwunden und nun bekomme ich es nicht mehr zum laufen. Kann mir da hier jemand helfen?


    Hier schon mal paar Info´s zum Zustand:


    root@PI-NAS:~# mdadm --examine --scan
    ARRAY /dev/md/NAS1 metadata=1.2 UUID=14acba40:b1b266ff:de35ebde:842115f9 name=raspberrypi:NAS1
    root@PI-NAS:~# mdadm --assemble --scan
    mdadm: No arrays found in config file or automatically
    root@PI-NAS:~# cat /proc/mdstat
    Personalities :
    md127 : inactive sdd[3](S) sdc[2](S) sdb[1](S) sda[0](S)
    7813534048 blocks super 1.2



    unused devices: <none>



    Hoffentlich kann mir hier einer Helfen.

    • Offizieller Beitrag

    I hope someone can help me here.

    My first comment is to never use raid on an RPi or usb drives. I only tell you the following commands so you can recover your files to get rid of raid.
    mdadm --stop /dev/md127
    mdadm --assemble --force --verbose /dev/md127 /dev/sd[dcba]

    omv 7.0.4-2 sandworm | 64 bit | 6.5 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.10 | compose 7.1.2 | k8s 7.0-6 | cputemp 7.0 | mergerfs 7.0.3


    omv-extras.org plugins source code and issue tracker - github


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Hier die Antwort von der Machine:


    root@PI-NAS:~# mdadm --stop /dev/md127
    mdadm: stopped /dev/md127
    root@PI-NAS:~# mdadm --assemble --force --verbose /dev/md127 /dev/sd[dcba]
    mdadm: looking for devices for /dev/md127
    mdadm: /dev/sda is identified as a member of /dev/md127, slot 0.
    mdadm: /dev/sdb is identified as a member of /dev/md127, slot 1.
    mdadm: /dev/sdc is identified as a member of /dev/md127, slot 2.
    mdadm: /dev/sdd is identified as a member of /dev/md127, slot 3.
    mdadm: forcing event count in /dev/sdd(3) from 5348 upto 5359
    mdadm: clearing FAULTY flag for device 3 in /dev/md127 for /dev/sdd
    mdadm: Marking array /dev/md127 as 'clean'
    mdadm: added /dev/sdb to /dev/md127 as 1
    mdadm: added /dev/sdc to /dev/md127 as 2 (possibly out of date)
    mdadm: added /dev/sdd to /dev/md127 as 3
    mdadm: added /dev/sda to /dev/md127 as 0
    mdadm: /dev/md127 has been started with 3 drives (out of 4).
    root@PI-NAS:~#

  • Das Raid ist wieder Online, aber eine HDD fehlt im Raid. Ich habe folgendes getan:


    root@PI-NAS:~# mdadm --examine /dev/sd[abcd] | egrep 'dev|Update|Role|State|Chunk Size'
    /dev/sda:
    State : clean
    Update Time : Wed Nov 14 17:46:59 2018
    Chunk Size : 512K
    Device Role : Active device 0
    Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)
    /dev/sdb:
    State : clean
    Update Time : Wed Nov 14 17:46:59 2018
    Chunk Size : 512K
    Device Role : Active device 1
    Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
    /dev/sdc:
    State : clean
    Update Time : Tue Nov 13 19:18:47 2018
    Chunk Size : 512K
    Device Role : Active device 2
    Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
    /dev/sdd:
    State : clean
    Update Time : Tue Nov 13 19:18:44 2018
    Chunk Size : 512K
    Device Role : Active device 3
    Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)


    root@PI-NAS:~# mdadm --assemble --force --verbose /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sdd
    mdadm: looking for devices for /dev/md0
    mdadm: /dev/sda is busy - skipping
    mdadm: /dev/sdb is busy - skipping
    mdadm: /dev/sdd is busy - skipping
    mdadm: Found some drive for an array that is already active: /dev/md127
    mdadm: giving up.


    root@PI-NAS:~# cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md127 : active (auto-read-only) raid5 sda[0] sdd[3] sdb[1]
    5860148736 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UU_U]



    unused devices: <none>



    Wir bekomme ich die 4. HDD wieder ins Raid?

    • Offizieller Beitrag

    We get the 4 HDD back into the raid?


    No and your raid is md127 you did this -> mdadm --assemble --force --verbose / dev / md0 / dev / sda / dev / sdb / dev / sdc / dev / sdd without specifying md127 is why it failed, and it will continue to fail until you resolve the error.


    Just google this -> mdadm possibly out of date and you will find a solution

  • Nach dem ich etwas bei google gefunden habe, ist das Problem jetzt noch größer.



    root@PI-NAS:~# mdadm --stop /dev/md127
    mdadm: stopped /dev/md127
    root@PI-NAS:~# mdadm --assemble --force --verbose /dev/md127 /dev/sd[dcba]
    mdadm: looking for devices for /dev/md127
    mdadm: no recogniseable superblock on /dev/sda
    mdadm: /dev/sda has no superblock - assembly aborted


    Was ist hier passiert?



    Laut google sollte ich das hier machen;


    root@PI-NAS:~# mdadm --stop /dev/md127
    mdadm: stopped /dev/md127
    root@PI-NAS:~# mdadm --zero-superblock /dev/sd[abcd]
    root@PI-NAS:~# mdadm --create /dev/md127 --level=5 --raid-devices=4 --assume-clean /dev/sda /demdadm: /dev/sdd appears to be part of a raid array:dg1 mis level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
    mdadm: partition table exists on /dev/sdd but will be lost or
    meaningless after creating array
    Continue creating array? yes
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md127 started.

  • Hier ist das Ergebnis:

    • Offizieller Beitrag

    Well according to that output there are no raid devices!! The output of cat /proc/mdstat shows nothing whereas your first post showed this;
    root @ PI-NAS: ~ # cat / proc / mdstat
    Personalities:
    md127: inactive sdd [3] (S) sdc [2] (S) sdb [1] (S) sda [0] (S)
    7813534048 blocks super 1.2


    and the result of blkid should display this -> TYPE="linux_raid_member" at the end of each drive /dev/sd[abcd]

    • Offizieller Beitrag

    Yes, that's the result of trying to repair the RAID. What can I do now?

    Was there any data on it? You could try and reassemble it using the gui, but that could well fail.


    All that was needed was to remove the superblock from /dev/sdc then add it back to array, /dev/sdc was the one throwing (possibly out of date) nothing else was required.

  • Das RAID ist mir extrem wichtig. Da ist die Sammlung von Foto und Video meiner Kinder drauf. Ein RAID5 erschien mir da die sicherste lösung zu sein. Die Erinnerungen dürfen einfach nicht weg sein.


    In der GUI bleibt die Schaltfläsche Wiederherstellen grau, es ist nur erstellen verfügbar.


    Hier wird aber auch die 4. HDD nicht angezeigt. Obwohl alle HDD angeschlossen sind und sonst in der GUI angezeigt werden.


    Wie gehe ich nun am bessten vor, um meine Daten und Erinnerungen zu retten?

  • In der GUI werden unter "Datenspeicher -> Laufwerke" alle 4 HDD angezeigt.
    aber unter "Datenspeicher -> RAID-Verwaltung -> Erstellen" werden nun die /sda, /sdb, /sdc angezeigt. Die /sdd fehlt da.


    @geaves Ich könnte dir einen Remote zugang einrichten und dir die Daten per PN schicken. Da kannst du dir selbst ein Bild davon machen. Wäre das OK für dich?

    • Offizieller Beitrag

    In the GUI under "Data storage -> drives" all 4 HDD are displayed. but under "Data Storage -> RAID Management -> Create" the / sda, / sdb, / sdc are now displayed. The / sdd is missing.


    /sdd is missing because of this:
    partition table exists on / dev / sdd but will be lost or
    meaningless after creating array
    Continue creating array? yes


    The data should still be there but I emphasise that conservatively, what you have done could be irreversible, I do not know, I have Instructed users to zero-superblock on one drive then add it back to the array for it to work , I've seen arrays recreated due to an issue with the current array.
    But this is something I have never encountered, there is one option you could try and that it is to recreate the array -> will this work? -> I don't know -> but the damage is already done.


    mdadm --create /dev/md0 --verbose --level5 --raid-devices=4 /dev/sd[abcd] I have no idea if that will work, it will probably fail due to the issue with /dev/sdd

  • Das hat leider nicht funktioniert.


    root@PI-NAS:~# mdadm --create /dev/md0 --verbose --level5 --raid-devices=4 /dev/sd[abcd]
    mdadm: unrecognized option '--level5'
    Usage: mdadm --help
    for help
    root@PI-NAS:~#


    Wie soll ich weiter vorgehen?

  • Da hat sich was getan.


    root@PI-NAS:~# mdadm --create /dev/md0 --verbose --level=5 --raid-devices=4 /dev/sd[abcd]mdadm: layout defaults to left-symmetric
    mdadm: layout defaults to left-symmetric
    mdadm: chunk size defaults to 512K
    mdadm: /dev/sdd appears to be part of a raid array:
     level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
    mdadm: partition table exists on /dev/sdd but will be lost or
    meaningless after creating array
    mdadm: size set to 1953383424K
    mdadm: automatically enabling write-intent bitmap on large array
    Continue creating array? yes
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    root@PI-NAS:~#

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!