Raid5 verschwindet nach jedem Reboot

  • Hallo Leute,
    zunächst einmal ein großen Dank an alle, die an OMV beteiligt. Es ist klasse, was ihr auf die Beine gestellt hab.
    Ich habe das Problem, dass nach jedem Reboot eins meiner zwei Raid5-Verbunde verschwindet. Ich kann dann mittels folgendem Befehl das verschwundene Raidverbund wieder einbinden.


    Code
    mdadm --create /dev/md/Pool3xHDD --chunk=512 --raid-devices=3 --spare-devices=0 --assume-clean --level=5 --name=homeserver:Pool3xHDD /dev/sdf /dev/sdg /dev/sdh --verbose


    Alle Daten sind danach wieder vorhanden und scheinen in Ordnung. Diesen Workaround hab ich durch einige Stunden Recherche gefunden :thumbup: . Ich dachte schon, ich kann mein Raidverbund auflösen und neu initialisieren.
    Jedoch kann das nicht als Dauerlösung eingesetzt werden, da der Server eigentlich nur bei Bedarf per WOL gestartet werden soll.


    Hier mal die Ausgaben nach einem Neustart für die aufgeführten Befehle im angepinnten Thema "Degraded or missing raid array questions".



    Hier jetzt die Ausgaben beim Wiedereinbinden / Erstellen des verschwundenen Raidverbunds:



    Ich hab leider keine passende Lösung für mich gefunden, deshalb wende ich mich jetzt an euch. Ich hoffe ihr könnt mir helfen. Denn das ganze als Autostartskript zu automatisieren ist für mich nicht der richtige Weg.


    Beste Grüße
    Timothee

  • Da man nicht mehr als 10000 Zeichen posten kann, hier noch die Ausgaben nach dem Wiedereinbinden / Erstellen:

    • Offizieller Beitrag

    Some of the post didn't translate well but try running update-initramfs after recreating the array. Then reboot to see if it disappears.


    While you seem to be lucky, using the create flag with data on the array is dangerous. I guess the assume-clean flag is saving the data.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Thanks for the fast reply. Sorry for my bad english. This is the reason why i wrote the post in german ^^.
    I will try it when i come home. Should i execute update-initramfs without parameters? I am a relativily newbie in linux / linux raid :/


    Best regards
    Timothee

    • Offizieller Beitrag

    I would try update-initramfs -u all

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • I tried it, but it aborted because of "extra argument all".
    Then i executed it without "all" and it generated the file.
    But after a reboot the same situation - my "Raid3xHDD" Raid5 is missing.

    • Offizieller Beitrag

    Are there any usb drives in the array?

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

    • Offizieller Beitrag

    All I can think is that a drive is starting up slow or starting to fail??

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • When my server booting i guess i see a message which indicates that a drive is not available. Tomorrow i look again and then i post the message here.
    When that is the problem, is it solvable?


    Best regards
    Timothee

    • Offizieller Beitrag

    I would have to see the message first.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Ich hab leider das gleiche Problem. ein Raid 5 aus 4 Platten, nach dem Neustart ist es nicht mehr vorhaden.


    Wird aber noch gefunden:

    Code
    mdadm --detail --scan --verbose
    ARRAY /dev/md0 level=raid5 num-devices=4 metadata=1.2 name=openmediavault:RAID UUID=51e8ea9a:9add00f3:8d3dc15c:b33080ae                                                  
       devices=/dev/sda,/dev/sdd


    Naja, so halbwegs. Das Raid ist eigentlich aus sda, sdb, sdc und sdd aufgebaut...
    Mit dem Befehl mit dem du dein Raid wieder zum laufen bekommst, wirkt bei mir leider nicht.

  • Code
    root@openmediavault:~# mdadm --create /dev/md/RAID --chunk=512 --raid-devices=4 --spare-devices=0 --assume-clean --level=5 --name=openmediavault:RAID /dev/sda /dev/sdb /
    dev/sdc /dev/sdd --verbose                                                                                                                                               
    mdadm: layout defaults to left-symmetric                                                                                                                                 
    mdadm: layout defaults to left-symmetric                                                                                                                                 
    mdadm: super1.x cannot open /dev/sda: Device or resource busy                                                                                                            
    mdadm: failed container membership check                                                                                                                                 
    mdadm: cannot open /dev/sda: Device or resource busy


    funktioniert leider bei mir nicht, äußerst ärgerlich bei einem frischen Server.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!