Raid1 nach Upgrade (omv 3 --> omv 4) nicht mehr einbindbar

    • OMV 4.x
    • Raid1 nach Upgrade (omv 3 --> omv 4) nicht mehr einbindbar

      Hallo,

      nach dem upgrade sehe ich mein RAID im WebGUI nicht mehr unter Dateisysteme. Ich kann es also nicht mehr einbinden.
      Im Menü RAID Verwaltung wird mir das RAID angezeigt.

      Wie bringe ich omv dazu das RAID wieder einzuhängen?
      Images
      • omv raid.png

        9.16 kB, 871×147, viewed 47 times
    • War auf den Laufwerken mal ein ZFS-Dateisystem? Es gibt einige Threads im Forum über Problemen mit Festplatten auf denen noch alte ZFS-Signaturen sind.

      Poste mal das Ergebnis von

      wipefs -n /dev/sdb
      wipefs -n /dev/sdc

      Achtung: mit wipefs kannst du deine Festplatte löschen. Also auf die Option "-n" achten.

      Schau auch mal hier:
      Cant mount XFS
      Odroid HC2 - armbian - Seagate ST4000DM004 - OMV4.x
      Asrock Q1900DC-ITX - 16GB - 2x Seagate ST3000VN000 - Intenso SSD 120GB - OMV4.x
      :!: Backup - Solutions to common problems - OMV setup videos - OMV4 Documentation - user guide :!:
    • ja da war oder ist ein ZFS-Dateisystem drauf.
      wipefs -n /dev/sdb:

      Brainfuck Source Code

      1. offset type
      2. ----------------------------------------------------------------
      3. 0x15d50f65e00 gpt [partition table]
      4. 0x15d50eefc00 zfs_member [filesystem]
      5. 0x1000 linux_raid_member [raid]
      6. LABEL: mfserver:127
      7. UUID: 18d28dc7-99ff-d479-73d3-42bc91ce70ad

      wipefs -n /dev/sdc:

      Brainfuck Source Code

      1. offset type
      2. ----------------------------------------------------------------
      3. 0x15d50f65e00 gpt [partition table]
      4. 0x15d50eefc00 zfs_member [filesystem]
      5. 0x1000 linux_raid_member [raid]
      6. LABEL: mfserver:127
      7. UUID: 18d28dc7-99ff-d479-73d3-42bc91ce70ad
    • Ich denke ja. Der Grund ist vermutlich die Debian Version.

      Man kann die ZFS Signatur löschen. Danach konnte das RAID in anderen Fällen wieder gemounted werden.
      Aber, wenn etwas falsch läuft, kann auch die Festplatte gelöscht werden. Daher wäre es besser ein Backup zu haben.

      Na ja, und dann stellt sich noch die Frage ob RAID überhaupt Sinn macht?
      Odroid HC2 - armbian - Seagate ST4000DM004 - OMV4.x
      Asrock Q1900DC-ITX - 16GB - 2x Seagate ST3000VN000 - Intenso SSD 120GB - OMV4.x
      :!: Backup - Solutions to common problems - OMV setup videos - OMV4 Documentation - user guide :!:
    • Also, möglich wäre

      1. Downgrade auf OMV3, oder es über eine Life-CD versuchen
      2. Backup machen
      3. entscheiden, ob RAID ja oder nein
      4. falls RAID ja, OMV wieder upgraden
      5. ZFS Signatur löschen
      6. RAID mounten
      7. falls was schief geht, vom Backup die Daten wiederherstellen
      Odroid HC2 - armbian - Seagate ST4000DM004 - OMV4.x
      Asrock Q1900DC-ITX - 16GB - 2x Seagate ST3000VN000 - Intenso SSD 120GB - OMV4.x
      :!: Backup - Solutions to common problems - OMV setup videos - OMV4 Documentation - user guide :!:
    • So, ich habe jetzt OMV3 installiert:
      Ich kann das RAID nach wie vor nicht einbinden. Zumindest nicht über das WebGUI.

      die Ausgabe von wipefs unterscheidet sich aber nun:

      Brainfuck Source Code

      1. root@mfserver:~# wipefs -n /dev/sdb
      2. offset type
      3. ----------------------------------------------------------------
      4. 0x15d50f65e00 gpt [partition table]
      5. 0x1000 linux_raid_member [raid]
      6. LABEL: mfserver:127
      7. UUID: 18d28dc7-99ff-d479-73d3-42bc91ce70ad
      Kein Vermerk von zfs mehr.
    • Source Code

      1. root@mfserver:~# cat /proc/mdstat
      2. Personalities : [raid1]
      3. md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
      4. 1465007488 blocks super 1.2 [2/2] [UU]
      5. bitmap: 0/11 pages [0KB], 65536KB chunk
      6. unused devices: <none>




      Source Code

      1. root@mfserver:~# blkid
      2. /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
      3. /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
      4. /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
      5. /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"

      Source Code

      1. root@mfserver:~# fdisk -l | grep "Disk "
      2. The primary GPT table is corrupt, but the backup appears OK, so that will be used.
      3. The primary GPT table is corrupt, but the backup appears OK, so that will be used.
      4. Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
      5. Disk identifier: 0x62432690
      6. Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
      7. Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
      8. Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
      9. Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
      10. Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors

      Source Code

      1. root@mfserver:~# cat /etc/mdadm/mdadm.conf
      2. # mdadm.conf
      3. #
      4. # Please refer to mdadm.conf(5) for information about this file.
      5. #
      6. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      7. # alternatively, specify devices to scan, using wildcards if desired.
      8. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      9. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      10. # used if no RAID devices are configured.
      11. DEVICE partitions
      12. # auto-create devices with Debian standard permissions
      13. CREATE owner=root group=disk mode=0660 auto=yes
      14. # automatically tag new arrays as belonging to the local system
      15. HOMEHOST <system>
      16. # definitions of existing MD arrays
      17. ARRAY /dev/md/127 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
      Display All



      Source Code

      1. root@mfserver:~# mdadm --detail --scan --verbose
      2. ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
      3. devices=/dev/sdb,/dev/sdc

      The post was edited 1 time, last by barney5 ().

    • QuellcodeQuellcode bearbeiten


      [*]root@mfserver:~# cat /proc/mdstat
      [*]Personalities : [raid1]
      [*]md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
      [*] 1465007488 blocks super 1.2 [2/2] [UU]
      [*] bitmap: 0/11 pages [0KB], 65536KB chunk
      [*]
      [*]unused devices: <none>
      [/list]


      Source Code

      1. root@mfserver:~# blkid
      2. /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
      3. /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
      4. /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
      5. /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"

      Source Code

      1. root@mfserver:~# fdisk -l | grep "Disk "
      2. The primary GPT table is corrupt, but the backup appears OK, so that will be used.
      3. The primary GPT table is corrupt, but the backup appears OK, so that will be used.
      4. Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
      5. Disk identifier: 0x62432690
      6. Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
      7. Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
      8. Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
      9. Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
      10. Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors

      Source Code

      1. root@mfserver:~# cat /etc/mdadm/mdadm.conf
      2. # mdadm.conf
      3. #
      4. # Please refer to mdadm.conf(5) for information about this file.
      5. #
      6. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      7. # alternatively, specify devices to scan, using wildcards if desired.
      8. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      9. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      10. # used if no RAID devices are configured.
      11. DEVICE partitions
      12. # auto-create devices with Debian standard permissions
      13. CREATE owner=root group=disk mode=0660 auto=yes
      14. # automatically tag new arrays as belonging to the local system
      15. HOMEHOST <system>
      16. # definitions of existing MD arrays
      17. ARRAY /dev/md/127 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
      Display All


      Source Code

      1. root@mfserver:~# mdadm --detail --scan --verbose
      2. ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
      3. devices=/dev/sdb,/dev/sdc