RAID1 Verbund verschwunden

  • Hallo,


    habe ein Problem mit einem RAID1 Verbund.


    Die Vorgeschichte:
    Habe einen Acer H341 mit vier 1TB HDDs. Diese vier Hdds sollen durch zwei 3TB HDDs ersetzt werden.
    Jeweils zwei der vier 1TB HDDs bilden einen RAID1 Verbund, sda + sdb = NAS02(md1), sde + sdf = NAS01(md0).


    Habe dann die beiden 1TB HDDs sda + sdb entfernt und durch die beiden 3TB HDDs ersetzt. Danach wurden die beiden 3TB HDDs von mir über das WebGUI vorbereitet und in OMV als RAID1 Verbund
    eingebunden und die Daten vom 2. 1TB RAID1 Verbund auf den neuen 3TB RAID1 Verbund kopiert. Dann habe ich den zweiten 1TB RAID1 Verbund wieder eingesteckt... und es war kein RAID Verbund mehr da.
    Die Platten werden zwar unter Reale Festplatten und S.M.A.R.T. angezeigt unter RAID Verwaltung und Dateisysteme ist von diesem RAID1 Verbund nichts mehr zu finden.


    Der Befehl cat /proc/mdstat liefert folgendes Ergebnis:

    Code
    Personalities : [raid1]
    md1 : active raid1 sda[0] sdb[1]
          2930135360 blocks super 1.2 [2/2] [UU]
    
    
    unused devices: <none>


    Der Befehl fdisk -l liefert folgendes Ergebnis:



    Meine Vermutung, der "alte" 1TB RAID1 Verbund und der neue 3TB RAID1 Verbund haben die gleiche MD-Nummer bekommen nämlich MD1. Und der "alte" Eintrag wurde
    von der Neuanlage, denke ich, überschrieben. Daher ist der "alte" RAID1 Verbund dem System unbekannt.


    Lange Rede kurze Frage, gibt es eine Möglichkeit den "alten" RAID1 Verbund wieder zu aktivieren?
    Würde gerne meine darauf befindlichen Daten auf den neuen RAID1 Verbund kopieren wollen.


    Weiß jemand Rat?


    Im voraus schon vielen Dank.

  • @andyp1961 Hey,

    der RAID-Experte hier ist ryecoaaron. Schreib bitte alles auf englisch, setze alle Ausgaben (von putty usw.) in Code-Tags und schreibe hier an ryecoaaron, indem Du seinem Nick ein @ voranstellst.


    Wenn er Zeit findet, wird er Dir ganz sicher helfen können.


    Viele Grüße.

    2 BananaPi, 1 OrangePiPC+, 1 OrangePiPC with OMV 6.0.x

  • @ryecoaaron
    Hello,


    I have a problem with my RAID1 array.


    My system consist of an Acer H341 with 4x 1TB HDDs. I want to replace these 4 HDDs with 3TB HDDs.
    Two of these HDDs are group into 2 RAID1 arrays, sda + sdb = NAS02(md1), sde + sdf = NAS01(md0).


    I removed first 1TB array (sda+sdb) and replaced them with new 3TB HDDs. I then created a new RAID1 array via the WebGUI and copied the data from the second 1TB array onto the new 3TB array.
    Afterwards swapped the second 1TB array with the first 1TB array, but this array doesn't show up anymore.
    The HDDs are listed under mdstat and fdisk (outputs see below), but not in the RAID management.


    "cat /proc/mdstat" output:

    Code
    Personalities : [raid1]
    md1 : active raid1 sda[0] sdb[1]
    2930135360 blocks super 1.2 [2/2] [UU]
    
    
    unused devices: <none>


    "fdisk -l" output:


    "cat /etc/mdadm/mdadm.conf" output:


    My guess here is, my old 1TB array and my new 3TB array have both the same md-device number "md1".
    And that my old array configuration was overwritten during the creation of the new array.


    Is it possible to resurrect my old 1TB array configuration?
    I'd love to keep my files on this array.


    Thank you in advance!

    • Offizieller Beitrag

    What is the output of: mdadm --detail --scan --verbose

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Hello ryecoaaron,


    the output of "mdadm --detail --scan --verbose" is:

    Code
    ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=WIN0001OMV:NAS001 UUID=55a67dea:e2297bba:a0dc8dea:8b908443
       devices=/dev/sda,/dev/sdc
    • Offizieller Beitrag

    I would try this:
    mdadm --assemble /dev/md0 /dev/sd[ef] --verbose --force
    or
    mdadm --assemble /dev/md0 --uuid 44e3822f:7982b82c:49fd4ed8:e10bac57


    I would check the output of cat /proc/mdstat to see if it is working. Once it is running, then update-initramfs -u

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

    • Offizieller Beitrag

    Great to hear :)

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!