Add Disk to Raid5

  • Hi all,


    I have added a new harddisk (4th) to my existing Raid5. The array looks fine, with 10.90 TiB in total. But only 7.12TiB are accessible in the filesystem. If I click on resize the confirmation message appears. If I hit 'yes' nothing else happens.


    Version : 1.2
    Creation Time : Sun Sep 7 20:06:10 2014
    Raid Level : raid5
    Array Size : 11706850944 (11164.52 GiB 11987.82 GB)
    Used Dev Size : 3902283648 (3721.51 GiB 3995.94 GB)
    Raid Devices : 4
    Total Devices : 4
    Persistence : Superblock is persistent


    Update Time : Mon Aug 8 20:08:20 2016
    State : clean
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0


    Layout : left-symmetric
    Chunk Size : 64K


    Name : DiskStation:2
    UUID : bddbfff8:e52d00ba:dd8e1663:bf60cf48
    Events : 26306


    Number Major Minor RaidDevice State
    0 8 37 0 active sync /dev/sdc5
    1 8 21 1 active sync /dev/sdb5
    2 8 53 2 active sync /dev/sdd5
    4 8 64 3 active sync /dev/sde






    Any ideas what to do?
    Thanks a lot!
    Regards,


    Chris

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

  • Das schon mal probiert, via Putty?


    try this


    resize2fs /dev/md2


    resize2fs 1.42.5 (29-Jul-2012)
    resize2fs: Das Gerät oder die Ressource ist belegt beim Versuch, /dev/md2 zu öffnen
    Kann keinen gültigen Dateisystem-Superblock finden.

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

  • Ich habe gparted ausprobiert. Aber das Raid Volume wurde mir nicht angezeigt, nur die einzelnen Disks. Das Problem haben anscheinend mehr?

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

  • Moin,


    bei Dateisysteme verwirrt mich der Name /dev/mapper/vg1000-lv statt /dev/md2.
    Klingt so als wenn LVM im Spiel ist.


    Vielleicht klappt das resize ja mit


    resize2fs /dev/mapper/vg1000-lv


    ???

  • Hi Trickreich,


    danke für den Tipp, aber das war leider auch nicht der Durchbruch :(


    resize2fs 1.42.5 (29-Jul-2012)
    Das Dateisystem ist schon 1951140864 Blöcke groß. Nichts zu tun!


    Das Volume wurde ursprünglich auf meiner Synology NAS generiert. Vielleicht liegt es daran.


    Gruß


    Chris

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

  • Hallo,


    was kommt denn als Antwort wenn Du bei Putty oder einem Terminal


    lvs


    eingibst?


    Ich denke die Synology hat LVM benutzt um das Raid zu erstellen. Dann mußt Du als zwischenschritt das Logische Laufwerk vergrößern und dann erst das Dateisystem.


    lvresize --extents +100%FREE /dev/mapper/vg1000-lv


    und dann erst


    resize2fs /dev/mapper/vg1000-lv



    Aber eigentlich kenne ich mich zu wenig aus als das ich mir da selber vertrauen würde.Ich will nicht schuld sein wenn dann alle Daten weg sind.


    In diesem Sinne einen schönen Abend.


  • Code
    root@nas:~# lvs
    LV   VG     Attr     LSize Pool Origin Data%  Move Log Copy%  Convert
    lv   vg1000 -wi-ao-- 7,27t

    lvresize --extents +100%FREE /dev/mapper/vg1000-lv
    resize2fs /dev/mapper/vg1000-lv


    Can someone confirm please, that this will NOT delete all my data?


    Cheers!


    Chris

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

    Einmal editiert, zuletzt von chriz77 ()

    • Offizieller Beitrag

    It won't delete your data but combine the statement into one. That is one of the things LVM is supposed to do (online resize).


    lvresize --extents +100%FREE -r /dev/mapper/vg1000-lv

    omv 7.0.4-2 sandworm | 64 bit | 6.5 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.10 | compose 7.1.2 | k8s 7.0-6 | cputemp 7.0 | mergerfs 7.0.3


    omv-extras.org plugins source code and issue tracker - github


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Unfortunately the volume is still not extended to its real size :(


    Code
    root@nas:~# lvresize --extents +100%FREE -r /dev/mapper/vg1000-lv
    Extending logical volume lv to 7,27 TiB
    Logical volume lv successfully resized
    resize2fs 1.42.5 (29-Jul-2012)
    Das Dateisystem ist schon 1951140864 Blöcke groß. Nichts zu tun!
    
    
    root@nas:~# lvs
    LV   VG     Attr     LSize Pool Origin Data%  Move Log Copy%  Convert
    lv   vg1000 -wi-ao-- 7,27t




    Cheers,


    Chris

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

    • Offizieller Beitrag

    What is the output of:
    vgs
    pvs

    omv 7.0.4-2 sandworm | 64 bit | 6.5 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.10 | compose 7.1.2 | k8s 7.0-6 | cputemp 7.0 | mergerfs 7.0.3


    omv-extras.org plugins source code and issue tracker - github


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Code
    root@nas:~# vgs
      VG     #PV #LV #SN Attr   VSize VFree
      vg1000   1   1   0 wz--n- 7,27t    0
    root@nas:~# pvs
      PV         VG     Fmt  Attr PSize PFree
      /dev/md2   vg1000 lvm2 a--  7,27t    0

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

    • Offizieller Beitrag

    You need to resize your physical volume. It doesn't know the array grew.


    pvresize /dev/md2


    then run the other command again.


    Personally, I wouldn't use lvm on top of mdadm raid.

    omv 7.0.4-2 sandworm | 64 bit | 6.5 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.10 | compose 7.1.2 | k8s 7.0-6 | cputemp 7.0 | mergerfs 7.0.3


    omv-extras.org plugins source code and issue tracker - github


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Personally, I wouldn't use lvm on top of mdadm raid.


    Sorry, I am a noob ;) What you would recommend? What shoult I do?

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

    • Offizieller Beitrag

    You already have it created so keep using it. Just letting you know that mdadm raid is all you need. lvm is just an unnecessary layer.


    Did the resize command work?

    omv 7.0.4-2 sandworm | 64 bit | 6.5 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.10 | compose 7.1.2 | k8s 7.0-6 | cputemp 7.0 | mergerfs 7.0.3


    omv-extras.org plugins source code and issue tracker - github


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • You need to resize your physical volume. It doesn't know the array grew.


    pvresize /dev/md2


    then run the other command again.


    YOU ARE THE MAN! Big thanks that did the trick!

    Hardware: MSI B150M ECO - Intel Pentium G4400 - 16GB Crucial CT2K8G4DFD8213 - Mushkin Chronos SSD 120 GB - 4x WD Red 4TB (RAID5)
    Software: OMV 4.1.x, Plex Media Server, Docker

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!