Datenverlust nach Upgrade auf OMV 4

  • Hallo,


    ich habe gestern auf Openmediavault 4 geupdatet, weil ich gelesen hatte das dies schon sehr stabil läuft. Jetzt lese ich hier gerade das es noch eine Alpha ist.
    Jetzt steh ich natürlich wie der dümmste Mensch dar. Das letzte Backup ist 4 Monate her. Ich bekomm gerade ein Herzinfarkt. Ich hoffe jemand kann mir bei der Datenrettung helfen. Da ich leider in der Windowswelt groß geworden bin.


    Folgendermaßen bin ich vorgegangen.


    apt-get update
    apt-get upgrade
    omv-release-upgrade


    Das Setup ist Fehlerfrei durchgelaufen.


    omv-initsystem


    Dies ist nicht fehlerfrei durch gelaufen.


    Jetzt zu meinem Problem.


    Vorher hatte ich ein Raid6 mit 7 Festplatten. Jetzt sieht das Raid folgendermaßen aus. (sdg fehlt und raid 0?)



    Beim Start des Servers kommt es zu Fehlermeldungen.



    Dann steht auf dem Bildschirm: A start Job is running for dev-disk-by\x2lable-raid6.device
    Nach 1:30 startet das System


    Kann ich das System neu installieren (OMV3) und hoffen das ich das Raid wieder finde? Oder kann ich damit das Problem noch verschlimmern?

  • Hier noch Informationen die in anderen Threads immer gefragt werden.


    Platten sind:
    4x WDC WD40EFRX-68WT0N0
    3x HGST 4TB H3IKNAS40003272SE NAS SA3


    Code
    Linux nas 4.9.0-0.bpo.4-amd64 #1 SMP Debian 4.9.65-3+deb9u1~bpo8+1 (2017-12-23)


    Code
    /dev/sda: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="4dc8628e-b364-e534-c23a-836c0b6e9e71" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdb: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="077086ae-6fb9-9b1e-9a3c-e45d35c61644" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdc: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="07e2a4c2-60c4-7a64-763b-25290ca4e0c1" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdd: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="179e2013-88f7-457a-6cba-88d6ea5da4e3" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sde: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="bd8bc35c-ee87-1f4f-5842-95edc7e90e53" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdf: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="62fddb0f-fb19-fa10-2072-1e53630a52c7" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdg1: UUID="4270c433-2be6-4c9f-a0bb-49cad6418d77" TYPE="ext4" PARTUUID="c25cc456-01"
    /dev/sdg5: UUID="7b754f7b-be3a-4474-b24b-db15610ace8c" TYPE="swap" PARTUUID="c25cc456-05"
    /dev/sdh1: PARTLABEL="primary" PARTUUID="c461f8ea-6414-4b78-bed1-26d174924a8c"
  • Code
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md0 : inactive sda[0](S) sdc[2](S) sdf[5](S) sde[4](S) sdd[3](S) sdb[1](S)
          23441340432 blocks super 1.2
    
    
    unused devices: <none>
  • Vielen Dank das ihr euch die Zeit nehmt mich zu unterstützen. Ich werde heute nach der Arbeit nach CLI suchen.
    Komisch finde ich nur dass das Laufwerk "sdg" nicht mehr im Raid auftaucht. Es handelt sich um ein HGST 4T. Vorher waren auch 7 Laufwerke im Raidverbund.


    Irgendwas stimmt da nicht. Gestern hatte ich noch folgende Ausgabe.


    Code
    sdg      8:96   1  7,5G  0 disk
    ├─sdg1   8:97   1  7,1G  0 part /
    ├─sdg2   8:98   1    1K  0 part
    └─sdg5   8:101  1  359M  0 part [SWAP]


    Heute nach einem Neustart scheint wieder alles in Ordnung. Smart meldet heute keine Fehler.


    Code
    sdg      8:96   0  3,7T  0 disk
    └─sdg1   8:97   0  3,7T  0 part


    Trotzdem scheint sie nicht mehr zum Verbund zu gehören.


    Code
    /dev/sda: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="4dc8628e-b364-e534-c23a-836c0b6e9e71" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdd: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="179e2013-88f7-457a-6cba-88d6ea5da4e3" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdf: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="62fddb0f-fb19-fa10-2072-1e53630a52c7" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sde: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="bd8bc35c-ee87-1f4f-5842-95edc7e90e53" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdb: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="077086ae-6fb9-9b1e-9a3c-e45d35c61644" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdc: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="07e2a4c2-60c4-7a64-763b-25290ca4e0c1" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdg1: PARTLABEL="primary" PARTUUID="c461f8ea-6414-4b78-bed1-26d174924a8c"


    Muss ich trotzdem das Raid "einfach" via CLI aktivieren?

  • Hallo,


    das Problem lag wohl an einem inkompatiblen/defekten sata-controller. Die siebte Festplatte war bei jedem zweiten Start nicht verfügbar. Ich hatte nach dem Rebuild noch nie neu gestartet, deshalb trat der Fehler wohl genau bei dem Update auf Version 4 auf. Ich habe jetzt einen SataController eingebaut und die siebte Festplatte hierrüber angeschlossen. Jetzt ist sdg1 wieder bei jedem Neustart verfügbar. Nur leider wird sie nicht als Raidmember angezeigt.

    Code
    /dev/sda: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="4dc8628e-b364-e534-c23a-836c0b6e9e71" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdb: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="077086ae-6fb9-9b1e-9a3c-e45d35c61644" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdc: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="07e2a4c2-60c4-7a64-763b-25290ca4e0c1" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdd: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="179e2013-88f7-457a-6cba-88d6ea5da4e3" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sde: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="bd8bc35c-ee87-1f4f-5842-95edc7e90e53" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdf: UUID="1a421ab2-2c0d-85c7-8c53-5973615e15db" UUID_SUB="62fddb0f-fb19-fa10-2072-1e53630a52c7" LABEL="nas:0" TYPE="linux_raid_member"
    /dev/sdh1: UUID="4270c433-2be6-4c9f-a0bb-49cad6418d77" TYPE="ext4" PARTUUID="c25cc456-01"
    /dev/sdh5: UUID="7b754f7b-be3a-4474-b24b-db15610ace8c" TYPE="swap" PARTUUID="c25cc456-05"
    /dev/sdg1: PARTLABEL="primary" PARTUUID="c461f8ea-6414-4b78-bed1-26d174924a8c"


    Ich habe zwar schon jede Menge gelesen, aber irgendwie trau ich mich nicht hier einen Befehl einzutippen. Was mich wundert, dass das Raid als Raid0 angezeigt wird. Eigentlich handelt es sich bei dem System um ein Raid6 und eigentlich ich die siebte Platte noch mit in diesem Verbund.


    Muss ich jetzt erst die siebte Festplatte wieder zu dem Raid hinzufügen und dann das Raid reparieren?


    Kann mir bitte jemand einen bzw. mehrere Befehle vortippen? Ich habe zu viel Schiss um von irgendwelchen Seiten Befehle zu kopieren, die nicht 100 prozentig zu meinem Problem passen. Die Hilfe ist ja auch nicht umsonst, sondern gut für das Karma. ;)

  • /dev/sdg1 ist eher das Laufwerk, wo OMV installiert ist, wenn ich das richtig sehe (/dev/sdg1: PARTLABEL="primary")
    In Beitrag #2 wars noch /dev/sdh1: PARTLABEL="primary"


    Zeig mal


    Code
    fdisk -lu


    May @ryecoaaron will have a look at it?


    Ich würde vermutlich /dev/sdh ins Raid nehmen und den Raidtypen auf 6 ändern. Aber das nur mit nem aktuellen Backup...oder wenns mir jemand mit mehr Wissen bestätigt.

    --
    Get a Rose Tattoo...


    HP t5740 with Expansion and USB3, Inateck Case w/ 3TB WD-Green
    OMV 5.5.23-1 Usul i386|4.19.0-9-686-pae

  • Ist es nicht möglich Raids auf Basis von /dev/disk/by-id zu erstellen?


    Das wäre dann zumindest für jeden eindeutig und verändert sich auch nicht einfach so. Kenne mich mit Software-RAID nicht wirklich aus, deshalb die Frage.


    Gruß Hoppel

    ----------------------------------------------------------------------------------
    openmediavault 6 | proxmox kernel | zfs | docker | kvm
    supermicro x11ssh-ctf | xeon E3-1240L-v5 | 64gb ecc | 8x10tb wd red | digital devices max s8
    ---------------------------------------------------------------------------------------------------------------------------------------

    • Offizieller Beitrag

    /dev/sdh looks like it is the OMV install drive since it has swap. No idea why /dev/sdg has a partition but maybe it wasn't wiped before adding it to the array.


    I would:


    mdadm --stop / dev / md0 [/ tt][tt]mdadm --assemble --force --verbose /dev/md0 /dev/sd[ecafdbh]


    And please remember to backup the array. raid isn't backup.

    • Offizieller Beitrag

    Is not it possible to create raids based on / dev / disk / by-id?


    That would be clear to everyone at least, and it will not change that way either. Do not really know me with RAID software, so the question.

    The drive letters changing aren't typically a problem for mdadm raid and wouldn't have helped here. There is a mdadm signature on each drive so it knows it is a part of an array.

  • Hello,


    Ryecoaaron is right, sdh is my OMV install drive. I tryed to use your command. Sdg is still out of the raid. But now I have access to my data. At the moment I am making backups of the important ones. Thanks for your help. It will be a lessen to me. In the future i promise to backup my data every week. What can I do to add sdg in the right way?



    Code
    root@nas:~# cat /proc/mdstat
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md0 : active raid6 sda[0] sdf[5] sde[4] sdd[3] sdc[2] sdb[1]
          19534435840 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
          bitmap: 1/30 pages [4KB], 65536KB chunk


  • The superblock is missing. Maybe i did something wrong when i added the drive 3 weeks before. But it worked probably till the reboot.

    Code
    root@nas:~# mdadm --misc --examine /dev/sdg1
    mdadm: Unknown keyword INACTIVE-ARRAY
    mdadm: No md superblock detected on /dev/sdg1.


    Is this the right command to repair the raid? Or should I format the drive before?

    Code
    mdadm --add /dev/md0 /dev/sdg1
    • Offizieller Beitrag

    You are looking at the partition for the superblock. Check the drive - mdadm --misc --examine /dev/sdg


    If the array is working, I would wipe the drive then add it to the array.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • I formated the disk with fdisk and added it again. Everything works now. Thank you so much. :)


Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!