Raid1 nach Upgrade (omv 3 --> omv 4) nicht mehr einbindbar

    • Offizieller Beitrag

    War auf den Laufwerken mal ein ZFS-Dateisystem? Es gibt einige Threads im Forum über Problemen mit Festplatten auf denen noch alte ZFS-Signaturen sind.


    Poste mal das Ergebnis von


    wipefs -n /dev/sdb
    wipefs -n /dev/sdc


    Achtung: mit wipefs kannst du deine Festplatte löschen. Also auf die Option "-n" achten.


    Schau auch mal hier:
    Cant mount XFS

  • ja da war oder ist ein ZFS-Dateisystem drauf.
    wipefs -n /dev/sdb:


    wipefs -n /dev/sdc:


  • Zitat von macom

    Auf dem raid unter OMV3 war aber ein anderes Filesystem? EXT4?

    das weiß ich ehrlich gesagt nicht mehr. Ich hätte vermutet EXT4.


    Hast du ein Backup von den Daten?

    von den wichtigsten (Fotos) schon. Vom Rest (z.B. Musik) leider nicht.


    Würde ein downgrade auf OMV3 helfen?

    • Offizieller Beitrag

    Ich denke ja. Der Grund ist vermutlich die Debian Version.


    Man kann die ZFS Signatur löschen. Danach konnte das RAID in anderen Fällen wieder gemounted werden.
    Aber, wenn etwas falsch läuft, kann auch die Festplatte gelöscht werden. Daher wäre es besser ein Backup zu haben.


    Na ja, und dann stellt sich noch die Frage ob RAID überhaupt Sinn macht?

    • Offizieller Beitrag

    Also, möglich wäre


    • Downgrade auf OMV3, oder es über eine Life-CD versuchen
    • Backup machen
    • entscheiden, ob RAID ja oder nein
    • falls RAID ja, OMV wieder upgraden
    • ZFS Signatur löschen
    • RAID mounten
    • falls was schief geht, vom Backup die Daten wiederherstellen
  • So, ich habe jetzt OMV3 installiert:
    Ich kann das RAID nach wie vor nicht einbinden. Zumindest nicht über das WebGUI.


    die Ausgabe von wipefs unterscheidet sich aber nun:


    Code
    root@mfserver:~# wipefs -n /dev/sdb
    offset               type
    ----------------------------------------------------------------
    0x15d50f65e00        gpt   [partition table]
    
    
    0x1000               linux_raid_member   [raid]
                         LABEL: mfserver:127
                         UUID:  18d28dc7-99ff-d479-73d3-42bc91ce70ad

    Kein Vermerk von zfs mehr.

  • Hallöle,
    wenn dein RAID (/dev/md127) erkannt wird, dann liegt das Problem nicht an ZFS-Signaturen auf den einzelnen Platten,
    sondern an evtl. vorhandenen ZFS-Signaturen auf dem RAID Device.


    Was kommt raus bei:


    wipefs -n /dev/md127


    Gruß,
    Thomas

  • Code
    root@mfserver:~# cat /proc/mdstat
    Personalities : [raid1]
    md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
    1465007488 blocks super 1.2 [2/2] [UU]
    bitmap: 0/11 pages [0KB], 65536KB chunk
    unused devices: <none>




    Code
    root@mfserver:~# blkid
    /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
    /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
    /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
    /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"


    Code
    root@mfserver:~# fdisk -l | grep "Disk "
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
    Disk identifier: 0x62432690
    Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
    Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
    Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors



    Code
    root@mfserver:~# mdadm --detail --scan --verbose
    ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
       devices=/dev/sdb,/dev/sdc
  • QuellcodeQuellcode bearbeiten



    [*]root@mfserver:~# cat /proc/mdstat
    [*]Personalities : [raid1]
    [*]md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
    [*] 1465007488 blocks super 1.2 [2/2] [UU]
    [*] bitmap: 0/11 pages [0KB], 65536KB chunk
    [*]
    [*]unused devices: <none>
    [/list]



    Code
    root@mfserver:~# blkid
    /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
    /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
    /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
    /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"


    Code
    root@mfserver:~# fdisk -l | grep "Disk "
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
    Disk identifier: 0x62432690
    Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
    Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
    Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors


    Code
    root@mfserver:~# mdadm --detail --scan --verbose
    ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
       devices=/dev/sdb,/dev/sdc

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!