Hallo Leute,
zunächst einmal ein großen Dank an alle, die an OMV beteiligt. Es ist klasse, was ihr auf die Beine gestellt hab.
Ich habe das Problem, dass nach jedem Reboot eins meiner zwei Raid5-Verbunde verschwindet. Ich kann dann mittels folgendem Befehl das verschwundene Raidverbund wieder einbinden.
mdadm --create /dev/md/Pool3xHDD --chunk=512 --raid-devices=3 --spare-devices=0 --assume-clean --level=5 --name=homeserver:Pool3xHDD /dev/sdf /dev/sdg /dev/sdh --verbose
Alle Daten sind danach wieder vorhanden und scheinen in Ordnung. Diesen Workaround hab ich durch einige Stunden Recherche gefunden . Ich dachte schon, ich kann mein Raidverbund auflösen und neu initialisieren.
Jedoch kann das nicht als Dauerlösung eingesetzt werden, da der Server eigentlich nur bei Bedarf per WOL gestartet werden soll.
Hier mal die Ausgaben nach einem Neustart für die aufgeführten Befehle im angepinnten Thema "Degraded or missing raid array questions".
cat /proc/mdstat:
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda[0] sde[4] sdd[3] sdc[2] sdb[1]
15627548672 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
blkid:
/dev/sdc: UUID="389bf470-2ad3-6f28-7318-ecf627e9fabb" UUID_SUB="b0f2ce16-be35-3d8b-2ea6-a4f4327eae71" LABEL="homeserver:Pool5xHDD" TYPE="linux_raid_member"
/dev/sdb: UUID="389bf470-2ad3-6f28-7318-ecf627e9fabb" UUID_SUB="85056897-6b2c-a35f-28f5-34196c9078b4" LABEL="homeserver:Pool5xHDD" TYPE="linux_raid_member"
/dev/sdi1: UUID="4c11b28c-7d9a-4a9f-8d53-e1b4e91492c8" TYPE="ext4" PARTUUID="6390d39f-01"
/dev/sdi5: UUID="2fb98d7d-fd00-49cd-b9c7-890452a79fc2" TYPE="swap" PARTUUID="6390d39f-05"
/dev/sde: UUID="389bf470-2ad3-6f28-7318-ecf627e9fabb" UUID_SUB="514e23dc-7f24-d7ef-2a73-658be6b7ed16" LABEL="homeserver:Pool5xHDD" TYPE="linux_raid_member"
/dev/sda: UUID="389bf470-2ad3-6f28-7318-ecf627e9fabb" UUID_SUB="0266268f-eab0-97a8-3371-061d463906e2" LABEL="homeserver:Pool5xHDD" TYPE="linux_raid_member"
/dev/sdf: UUID="8e6903ce-5c70-f699-3588-2f665846e42d" UUID_SUB="9a3b29f1-bd4a-4316-2500-c0e58994f524" LABEL="homeserver:Pool3xHDD" TYPE="linux_raid_member"
/dev/md0: LABEL="Raid5xHDD" UUID="e36d1e07-3b7d-4048-b790-959e0f345579" TYPE="xfs"
/dev/sdd: UUID="389bf470-2ad3-6f28-7318-ecf627e9fabb" UUID_SUB="65eac07d-67a7-4cbb-78a4-5991f2f82fa1" LABEL="homeserver:Pool5xHDD" TYPE="linux_raid_member"
/dev/sdh1: PARTLABEL="Basic data partition" PARTUUID="589425a8-d5a6-4c9c-a929-733d9409bd95"
/dev/sdg1: PARTLABEL="Basic data partition" PARTUUID="91e5f2a0-d504-42dd-8ff4-676afed98c21"
Alles anzeigen
fdisk -l:
Disk /dev/sdc: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdb: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdh: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: DD66ED13-30AF-4848-A2C0-DB79209451F0
Device Start End Sectors Size Type
/dev/sdh1 2048 15628052479 15628050432 7,3T Microsoft basic data
Disk /dev/sdi: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x6390d39f
Device Boot Start End Sectors Size Id Type
/dev/sdi1 * 2048 239855615 239853568 114,4G 83 Linux
/dev/sdi2 239857662 250068991 10211330 4,9G 5 Extended
/dev/sdi5 239857664 250068991 10211328 4,9G 82 Linux swap / Solaris
Disk /dev/sde: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sda: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdg: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: C3E7FD71-6072-4C1E-BE1A-833C3751BAB1
Device Start End Sectors Size Type
/dev/sdg1 2048 15628052479 15628050432 7,3T Microsoft basic data
Disk /dev/sdf: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdd: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md0: 14,6 TiB, 16002609840128 bytes, 31255097344 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 2097152 bytes
Alles anzeigen
cat /etc/mdadm/mdadm.conf:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
ARRAY /dev/md0 metadata=1.2 name=homeserver:Pool5xHDD UUID=389bf470:2ad36f28:7318ecf6:27e9fabb
ARRAY /dev/md/Pool3xHDD metadata=1.2 name=homeserver:Pool3xHDD UUID=8e6903ce:5c70f699:35882f66:5846e42d
# instruct the monitoring daemon where to send mail alerts
MAILADDR timXXX@XXX.de
Alles anzeigen
mdadm --detail --scan --verbose:
ARRAY /dev/md0 level=raid5 num-devices=5 metadata=1.2 name=homeserver:Pool5xHDD UUID=389bf470:2ad36f28:7318ecf6:27e9fabb
devices=/dev/sda,/dev/sdb,/dev/sdc,/dev/sdd,/dev/sde
Hier jetzt die Ausgaben beim Wiedereinbinden / Erstellen des verschwundenen Raidverbunds:
mdadm --create /dev/md/Pool3xHDD --chunk=512 --raid-devices=3 --spare-devices=0 --assume-clean --level=5 --name=homeserver:Pool3xHDD /dev/sdf /dev/sdg /dev/sdh --verbose:
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: /dev/sdf appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Mar 29 14:57:35 2016
mdadm: /dev/sdg appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sdg but will be lost or
meaningless after creating array
mdadm: /dev/sdh appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sdh but will be lost or
meaningless after creating array
mdadm: size set to 7813895168K
mdadm: automatically enabling write-intent bitmap on large array
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/Pool3xHDD started.
Alles anzeigen
Ich hab leider keine passende Lösung für mich gefunden, deshalb wende ich mich jetzt an euch. Ich hoffe ihr könnt mir helfen. Denn das ganze als Autostartskript zu automatisieren ist für mich nicht der richtige Weg.
Beste Grüße
Timothee