Raid 5 Verständnisprobleme / angezeigte Kapazitäten

  • Hallo,


    Ich habe gestern eine 4. Festplatte in mein NAS gesteckt. Die Erweiterung des Raid Verbundes über das Web Interface hat funktioniert. Die neue (zusätzliche Platte) wurde nicht als Spare hinzugefügt. Alle vier Platten haben eine Kapazität von 3 TB (Verkaufsangabe, OMV zeigt mir im Web Interface jeweils 2.73 TIB an)


    Die Vergrösserung des Detaisystems über das Web Interface brachte mir erst mal einen Fehler. Gut, gelesen und festgestellt, dass das RAID rekonfiguriert werden muss. OK, das ich ein XFS Filesystem verwende,habe ich dann das reshape angestossen,über die Konsole. Das war vor einer Stunde dann nach 979 min. fertig. So weit so gut !


    In der RAID Verwaltung wird mir nun (nach dem reshape) folgendes angezeigt:


    Name: openmediavault:NAS
    Laufwerk: /dev/md0
    Zustand: clean
    Level: RAID 5
    Kapazität: 8,19 TiB (vor einbau der vierten Platte waren es 5,7 etwa)
    Laufwerke: /dev/sdb /dev/sdc /dev/sdd /dev/sde


    Die detaillierte Auflistung ist wie folgt:



    Wenn ich mir nun das Dateisystem anschaue,dann stimmen die Angaben absolut nicht überein. Irgendwie "fehlt" da eine Menge ...


    Laufwerk(e): /dev/md0
    Bezeichnung: NAS
    Dateisystemtyp: xfs
    Gesamt: 5,46 TiB --> hier fehlt die neue Platte (sollten etwas mehr als 9 TiB sein)

    Verfügbar: 2,57 TiB
    Verwendet:2,88 TiB --> stimmt als einziges

    Eingebunden: ja
    Referenziert: ja
    Status: Online


    Nun zu meiner Frage:


    1. Habe ich etwas vergessen, nach dem reshape ? Muss das Dateisystem auch (besser) über die Konsole vergrössert werden ? Wie geht das für xfs
    2. Wieso werden die Kapazitäten im Dateisystem nicht aktualisiert, oder dauert das ähnlich lange wie das reshape ? (denke eigentlich nicht)
    3. Wenn ich versuche, das Dateisystem (über das Web Interface) zu vergrössern erhalte ich einen Fehler:


    Failed to execute command 'export PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin; export LANG=C; xfs_growfs '/srv/821901f6-a73b-4315-95e6-4bbd1a70960c' 2>&1' with exit code '1': xfs_growfs: /srv/821901f6-a73b-4315-95e6-4bbd1a70960c is not a mounted XFS filesystem


    Aus den Details dazu werde ich nicht so richtig schlau:



    Vielen Dank im Voraus für erhellende Denkanstösse


    pritt

    6.7.0-3 (Shaitan) Prozessor: Intel® Pentium® CPU N3700 @ 1.60GHz Kernel: Linux 6.1.0-0.deb11.7-amd64

  • Selbst gelöst ...


    Es fehlte auf der Konsole der Befehl:


    xfs_growfs /dev/md0


    Das Ausführen des Befehls ist mit dem gemounteten Dateisystem möglich. Nun werden dieTiB´s sowohl im RAID als auch im Dateisystem mit 8,18 TiB (gesamt) richtig angegeben.

    6.7.0-3 (Shaitan) Prozessor: Intel® Pentium® CPU N3700 @ 1.60GHz Kernel: Linux 6.1.0-0.deb11.7-amd64

    • Offizieller Beitrag

    xfs_growfs '/ srv / 821901f6-a73b-4315-95e6-4bbd1a70960c' 2> & 1 'with exit code' 1 ': xfs_growfs: / srv / 821901f6-a73b-4315-95e6-4bbd1a70960c is not mounted XFS filesystem' in / usr /share/php/openmediavault/system/process.inc:175Stack trace: # 0

    For whatever reason it fails to pick up the specific mount point,
    xfs_growfs /mountpoint in this case it would be the mount point of the raid, which under File Systems you can display the mount point. To do that select any label then from the drop down>>columns check Mount Point.

    Raid is not a backup! Would you go skydiving without a parachute?


    OMV 6x amd64 running on an HP N54L Microserver

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!