Posts by Trickreich

    Hallo,


    after some Problems, i tried to make my Raid bigger 6 instead of 5 Disks, I have now a Raid 5 with 6 Disks but only 5 are working. The 6th Disk is installed and seen by OMV, sd [abcdg]. sd[f] is the not used 6th Disk.


    Would it be correct to use
    mdadm --stop /dev/md127
    mdadm --assemble --verbose --force /dev/md127 /dev/sd[abcdgf]


    i tried something like that with an other Raid a few Month before and the result was a Raid with a spare disk. :-(


    Maybe someone have a good idea?



    Also, falls jemand mit meinem holprigen Englisch nicht so viel anfangen kann, ..


    ich wollte mein Raid 5 um eine Platte vergrößern. Das hab ich irgendwie nicht so richtg fein hin bekommen. Als Ergebnis nach eineigen Tagen Syncen hab ich jetzt ein Raid5 das aus 6 Platten bestehen sollte aber nur 5 hat. Eine 6. Platte ist eingebaut wird von OMV auch erkannt, aber mir bei der Raid Verwaltung nicht für die Wiederherstellung angeboten. Jetzt würde ich natürlich gerne die 6. Platte wieder hinzufügen um ein minimum an Sicherheit zu haben.



    wäre es richtig mit


    mdadm --stop /dev/md127
    mdadm --assemble --verbose --force /dev/md127 /dev/sd[adcdgf]


    so was ähnliches habe ich schon mal bei einem anderen OMV versucht. Danach hatte ich dann allerdings eine spare Platte. :-(


    Vielleicht weiß ja einer wie es geht?


    Danke schon mal


    Trickreich

    Hallo,


    ist es möglich bei PYLoad den Download Ordner auf ein vorhandenes Raid zu setzen?
    In der Config bietet er mir nur Ordner der Systempartition an. :-(



    Vielen Dank


    Trickreich

    Hallo,


    wie groß ist eigentlich so eine durchschnittliche OMV Installation?
    Ich habe auf 8GB noch 240MB Platz, das erscheint mir ein wenig groß, oder?


    What ist the average Size of an OMV Installation?
    Ich have 240MB left on 8GB. Isnt it a bit to large?


    Danke schon mal


    Trickreich

    Hallo,


    was kommt denn als Antwort wenn Du bei Putty oder einem Terminal


    lvs


    eingibst?


    Ich denke die Synology hat LVM benutzt um das Raid zu erstellen. Dann mußt Du als zwischenschritt das Logische Laufwerk vergrößern und dann erst das Dateisystem.


    lvresize --extents +100%FREE /dev/mapper/vg1000-lv


    und dann erst


    resize2fs /dev/mapper/vg1000-lv



    Aber eigentlich kenne ich mich zu wenig aus als das ich mir da selber vertrauen würde.Ich will nicht schuld sein wenn dann alle Daten weg sind.


    In diesem Sinne einen schönen Abend.

    Moin,


    bei Dateisysteme verwirrt mich der Name /dev/mapper/vg1000-lv statt /dev/md2.
    Klingt so als wenn LVM im Spiel ist.


    Vielleicht klappt das resize ja mit


    resize2fs /dev/mapper/vg1000-lv


    ???

    Sorry to ask you again


    After the reboot the raid 5 ist not present,


    a cat /proc/mdstat gives the following


    Personalities : [raid6] [raid5] [raid4]
    md126 : inactive sdf[4](S)
    3907017560 blocks super 1.2


    md127 : inactive sda[0] sdc[3] sdd[2] sdb[1]
    15628070240 blocks super 1.2


    i stopped both with
    mdadm --stop /dev/md126
    mdadm --stop /dev/md127


    then i started


    mdadm --assemble --verbose --force /dev/md127 /dev/sd[abcdf]


    i got these Answer



    mdadm: looking for devices for /dev/md127
    mdadm: /dev/sda is identified as a member of /dev/md127, slot 0.
    mdadm: /dev/sdb is identified as a member of /dev/md127, slot 1.
    mdadm: /dev/sdc is identified as a member of /dev/md127, slot 3.
    mdadm: /dev/sdd is identified as a member of /dev/md127, slot 2.
    mdadm: /dev/sdf is identified as a member of /dev/md127, slot 4.
    mdadm: Marking array /dev/md127 as 'clean'
    mdadm:/dev/md127 has an active reshape - checking if critical section needs to be restored
    mdadm: too-old timestamp on backup-metadata on device-4
    mdadm: added /dev/sdb to /dev/md127 as 1
    mdadm: added /dev/sdd to /dev/md127 as 2
    mdadm: added /dev/sdc to /dev/md127 as 3
    mdadm: added /dev/sdf to /dev/md127 as 4 (possibly out of date)
    mdadm: added /dev/sda to /dev/md127 as 0
    mdadm: /dev/md127 has been started with 4 drives (out of 5).


    The raid is now visible in the OMV webinterface


    cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md127 : active (auto-read-only) raid5 sda[0] sdc[3] sdd[2] sdb[1]
    11721051648 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUUU_]


    But the details are not showing how many % of the reshape ist done.


    Version : 1.2
    Creation Time : Sat Mar 15 18:24:50 2014
    Raid Level : raid5
    Array Size : 11721051648 (11178.07 GiB 12002.36 GB)
    Used Dev Size : 3907017216 (3726.02 GiB 4000.79 GB)
    Raid Devices : 5
    Total Devices : 4
    Persistence : Superblock is persistent



    Update Time : Sun Aug 7 10:44:25 2016
    State : clean, degraded
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0



    Layout : left-symmetric
    Chunk Size : 512K



    Delta Devices : 1, (4->5)



    Name : Speicherkasten2:SK
    UUID : 66a1b019:6157517c:1accb2aa:85eb0bdf
    Events : 1829



    Number Major Minor RaidDevice State
    0 8 0 0 active sync /dev/sda
    1 8 16 1 active sync /dev/sdb
    2 8 48 2 active sync /dev/sdd
    3 8 32 3 active sync /dev/sdc
    4 0 0 4 removed



    can you help me??? :-)

    Hallo,


    i mean really no output. I have to use ctrl-c to get the cursor back.


    could i be that the system is to busy to answer? The load average ist above 2.05
    Any usage of mdadm ... ist without answer.


    I hope a reshape or resize prozess is running


    I had a Problem with a raid 5 after adding a 5th Disk.
    Reshape > bad Luck > reboot > raid5 gone :-(

    Drive sdc seems to be "faulty spare" can you check the drive?


    because its faulty you should remove it with


    mdadm --manage /dev/md127 -r /dev/sdc




    But a raid5 with 2 Disks would make me nervous. :-)
    Give him a 3. Disk again.