Hallo,
nach dem upgrade sehe ich mein RAID im WebGUI nicht mehr unter Dateisysteme. Ich kann es also nicht mehr einbinden.
Im Menü RAID Verwaltung wird mir das RAID angezeigt.
Wie bringe ich omv dazu das RAID wieder einzuhängen?
Hallo,
nach dem upgrade sehe ich mein RAID im WebGUI nicht mehr unter Dateisysteme. Ich kann es also nicht mehr einbinden.
Im Menü RAID Verwaltung wird mir das RAID angezeigt.
Wie bringe ich omv dazu das RAID wieder einzuhängen?
War auf den Laufwerken mal ein ZFS-Dateisystem? Es gibt einige Threads im Forum über Problemen mit Festplatten auf denen noch alte ZFS-Signaturen sind.
Poste mal das Ergebnis von
wipefs -n /dev/sdb
wipefs -n /dev/sdc
Achtung: mit wipefs kannst du deine Festplatte löschen. Also auf die Option "-n" achten.
Schau auch mal hier:
Cant mount XFS
ja da war oder ist ein ZFS-Dateisystem drauf.
wipefs -n /dev/sdb:
offset type
----------------------------------------------------------------
0x15d50f65e00 gpt [partition table]
0x15d50eefc00 zfs_member [filesystem]
0x1000 linux_raid_member [raid]
LABEL: mfserver:127
UUID: 18d28dc7-99ff-d479-73d3-42bc91ce70ad
Alles anzeigen
wipefs -n /dev/sdc:
Auf dem raid unter OMV3 war aber ein anderes Filesystem? EXT4?
Hast du ein Backup von den Daten?
Zitat von macomAuf dem raid unter OMV3 war aber ein anderes Filesystem? EXT4?
das weiß ich ehrlich gesagt nicht mehr. Ich hätte vermutet EXT4.
Hast du ein Backup von den Daten?
von den wichtigsten (Fotos) schon. Vom Rest (z.B. Musik) leider nicht.
Würde ein downgrade auf OMV3 helfen?
Ich denke ja. Der Grund ist vermutlich die Debian Version.
Man kann die ZFS Signatur löschen. Danach konnte das RAID in anderen Fällen wieder gemounted werden.
Aber, wenn etwas falsch läuft, kann auch die Festplatte gelöscht werden. Daher wäre es besser ein Backup zu haben.
Na ja, und dann stellt sich noch die Frage ob RAID überhaupt Sinn macht?
Also, möglich wäre
ok, danke!
ich versuch den Weg über downgrade auf OMV3
OK thanks!
I try the way downgrade on OMV3
Before you do that look at this thread
Risk I see: there is no backup.
Risk I see: there is no backup.
Another one!! Technically it should work provided the correct switch is used on wipefs...but wrong switch then the data's gone.
So, ich habe jetzt OMV3 installiert:
Ich kann das RAID nach wie vor nicht einbinden. Zumindest nicht über das WebGUI.
die Ausgabe von wipefs unterscheidet sich aber nun:
root@mfserver:~# wipefs -n /dev/sdb
offset type
----------------------------------------------------------------
0x15d50f65e00 gpt [partition table]
0x1000 linux_raid_member [raid]
LABEL: mfserver:127
UUID: 18d28dc7-99ff-d479-73d3-42bc91ce70ad
Kein Vermerk von zfs mehr.
Kann mir jemand helfen wie ich dass über das CLI hinbekomme?
Hallöle,
wenn dein RAID (/dev/md127) erkannt wird, dann liegt das Problem nicht an ZFS-Signaturen auf den einzelnen Platten,
sondern an evtl. vorhandenen ZFS-Signaturen auf dem RAID Device.
Was kommt raus bei:
wipefs -n /dev/md127
Gruß,
Thomas
root@mfserver:~# cat /proc/mdstat
Personalities : [raid1]
md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
1465007488 blocks super 1.2 [2/2] [UU]
bitmap: 0/11 pages [0KB], 65536KB chunk
unused devices: <none>
root@mfserver:~# blkid
/dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
/dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
/dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
/dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"
root@mfserver:~# fdisk -l | grep "Disk "
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
Disk identifier: 0x62432690
Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors
root@mfserver:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
ARRAY /dev/md/127 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
Alles anzeigen
QuellcodeQuellcode bearbeiten
[*]root@mfserver:~# cat /proc/mdstat
[*]Personalities : [raid1]
[*]md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
[*] 1465007488 blocks super 1.2 [2/2] [UU]
[*] bitmap: 0/11 pages [0KB], 65536KB chunk
[*]
[*]unused devices: <none>
[/list]
root@mfserver:~# blkid
/dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
/dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
/dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
/dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"
root@mfserver:~# fdisk -l | grep "Disk "
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
The primary GPT table is corrupt, but the backup appears OK, so that will be used.
Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
Disk identifier: 0x62432690
Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors
root@mfserver:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
ARRAY /dev/md/127 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
Alles anzeigen
The output is fine, I can't see any errors.
Actually my fault, sorry, this is wrong md127: active (auto-read-only) raid1 sdb [0] sdc [1]
Execute mdadm --readwrite /dev/md127 then do
cat /proc/mdstat and you should see the raid resyncing once complete it should be fine.
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!