Raid5 verschwindet nach jedem Reboot

  • Hallo Leute,
    zunächst einmal ein großen Dank an alle, die an OMV beteiligt. Es ist klasse, was ihr auf die Beine gestellt hab.
    Ich habe das Problem, dass nach jedem Reboot eins meiner zwei Raid5-Verbunde verschwindet. Ich kann dann mittels folgendem Befehl das verschwundene Raidverbund wieder einbinden.


    Code
    mdadm --create /dev/md/Pool3xHDD --chunk=512 --raid-devices=3 --spare-devices=0 --assume-clean --level=5 --name=homeserver:Pool3xHDD /dev/sdf /dev/sdg /dev/sdh --verbose


    Alle Daten sind danach wieder vorhanden und scheinen in Ordnung. Diesen Workaround hab ich durch einige Stunden Recherche gefunden :thumbsup: . Ich dachte schon, ich kann mein Raidverbund auflösen und neu initialisieren.
    Jedoch kann das nicht als Dauerlösung eingesetzt werden, da der Server eigentlich nur bei Bedarf per WOL gestartet werden soll.


    Hier mal die Ausgaben nach einem Neustart für die aufgeführten Befehle im angepinnten Thema "Degraded or missing raid array questions".



    Hier jetzt die Ausgaben beim Wiedereinbinden / Erstellen des verschwundenen Raidverbunds:



    Ich hab leider keine passende Lösung für mich gefunden, deshalb wende ich mich jetzt an euch. Ich hoffe ihr könnt mir helfen. Denn das ganze als Autostartskript zu automatisieren ist für mich nicht der richtige Weg.


    Beste Grüße
    Timothee

  • Da man nicht mehr als 10000 Zeichen posten kann, hier noch die Ausgaben nach dem Wiedereinbinden / Erstellen:

  • Some of the post didn't translate well but try running update-initramfs after recreating the array. Then reboot to see if it disappears.


    While you seem to be lucky, using the create flag with data on the array is dangerous. I guess the assume-clean flag is saving the data.

    omv 5.6.4 usul | 64 bit | 5.11 proxmox kernel | omvextrasorg 5.6
    omv-extras.org plugins source code and issue tracker - github


    Please read this before posting a question.
    Please don't PM for support... Too many PMs!

  • Thanks for the fast reply. Sorry for my bad english. This is the reason why i wrote the post in german ^^.
    I will try it when i come home. Should i execute update-initramfs without parameters? I am a relativily newbie in linux / linux raid :/


    Best regards
    Timothee

  • I would try update-initramfs -u all

    omv 5.6.4 usul | 64 bit | 5.11 proxmox kernel | omvextrasorg 5.6
    omv-extras.org plugins source code and issue tracker - github


    Please read this before posting a question.
    Please don't PM for support... Too many PMs!

  • I tried it, but it aborted because of "extra argument all".
    Then i executed it without "all" and it generated the file.
    But after a reboot the same situation - my "Raid3xHDD" Raid5 is missing.

  • Are there any usb drives in the array?

    omv 5.6.4 usul | 64 bit | 5.11 proxmox kernel | omvextrasorg 5.6
    omv-extras.org plugins source code and issue tracker - github


    Please read this before posting a question.
    Please don't PM for support... Too many PMs!

  • All I can think is that a drive is starting up slow or starting to fail??

    omv 5.6.4 usul | 64 bit | 5.11 proxmox kernel | omvextrasorg 5.6
    omv-extras.org plugins source code and issue tracker - github


    Please read this before posting a question.
    Please don't PM for support... Too many PMs!

  • When my server booting i guess i see a message which indicates that a drive is not available. Tomorrow i look again and then i post the message here.
    When that is the problem, is it solvable?


    Best regards
    Timothee

  • I would have to see the message first.

    omv 5.6.4 usul | 64 bit | 5.11 proxmox kernel | omvextrasorg 5.6
    omv-extras.org plugins source code and issue tracker - github


    Please read this before posting a question.
    Please don't PM for support... Too many PMs!

  • Ich hab leider das gleiche Problem. ein Raid 5 aus 4 Platten, nach dem Neustart ist es nicht mehr vorhaden.


    Wird aber noch gefunden:

    Code
    mdadm --detail --scan --verbose
    ARRAY /dev/md0 level=raid5 num-devices=4 metadata=1.2 name=openmediavault:RAID UUID=51e8ea9a:9add00f3:8d3dc15c:b33080ae
    devices=/dev/sda,/dev/sdd


    Naja, so halbwegs. Das Raid ist eigentlich aus sda, sdb, sdc und sdd aufgebaut...
    Mit dem Befehl mit dem du dein Raid wieder zum laufen bekommst, wirkt bei mir leider nicht.

  • Code
    root@openmediavault:~# mdadm --create /dev/md/RAID --chunk=512 --raid-devices=4 --spare-devices=0 --assume-clean --level=5 --name=openmediavault:RAID /dev/sda /dev/sdb /
    dev/sdc /dev/sdd --verbose
    mdadm: layout defaults to left-symmetric
    mdadm: layout defaults to left-symmetric
    mdadm: super1.x cannot open /dev/sda: Device or resource busy
    mdadm: failed container membership check
    mdadm: cannot open /dev/sda: Device or resource busy


    funktioniert leider bei mir nicht, äußerst ärgerlich bei einem frischen Server.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!