Beiträge von Drake008

    Hi,


    ich kriege keine Backportskernel mehr installiert. Habe das entsprechende DEB file runtergeladen und versuche nun Backports auf enabled zu stellen. Dabei kriege ich aber immer einen Gateway error. Alles andere lässt sich jedoch installieren. Ich gehe also davon aus das es nicht an den Netztwerkeinstellungen liegt.


    ICh bekomme immer den Fehler "Communication failure" ist der Backports server nicht mehr online?

    SO ich habe jetzt mal alle Platten mit deren Testprogramm durchgeprüft und die haben alle keine Fehler. Wie kommt es dann, dass das Raid5 nicht aktiviert wird bzw. degraded ist? Es ist ahlt merkwürdig wenn ich mir den Status anzeigen lasse dann habe ich SDB,SDC,SDD. SDA ist nirgends zusehen nur ein removed steht da noch.


    Code
    root@Schrank:~# cat /proc/mdstat
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md127 : active raid5 sdb[1] sdd[3] sda[2]
          2929893888 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU]
    
    
    unused devices: <none>



    Code
    root@Schrank:~# blkid
    /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-caaa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6acd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sde1: UUID="17309ced-091b-40a7-881b-67a91d431041" TYPE="ext4" PARTUUID="c34922aa-01"
    /dev/sde5: UUID="b78acade-134e-4bd7-89ff-b1da69fc43db" TYPE="swap" PARTUUID="c34922aa-05"
    /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f78d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/md127: LABEL="Daten" UUID="3cefb1ab-440e-4d2f-8aec-9e1c7ee6b79a" TYPE="ext4"
    Code
    root@Schrank:~#  mdadm --detail --scan --verbose
    ARRAY /dev/md127 level=raid5 num-devices=4 metadata=1.2 name=NAS:Datengrab UUID=79d94d6c:7030af53:7c7b1956:c4564987
       devices=/dev/sda,/dev/sdb,/dev/sdd
    Code
    root@Schrank:~# fdisk -l | grep "Disk "
    Disk /dev/sdd: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
    Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
    Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
    Disk /dev/sde: 29.3 GiB, 31488000000 bytes, 61500000 sectors
    Disk identifier: 0xc34922aa
    Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
    Disk /dev/md127: 2.7 TiB, 3000211341312 bytes, 5859787776 sectors
    root@Schrank:~#

    Nein das denke ich auch.


    ICh versuche euch mal zu erklären wie komisch das NAS sich verhält.


    Ich kann ein paar Dateien runterladen. Kommt das NAS anscheinend an eine kaputte Datei bleibt es dort hängen und nach kurzer Zeit hängt es sich total ab. ICh sehe dann die Verzeichnisse und Dateien kann aber keine Dateien mehr kopieren. So ist der Status bei mir momentan. Ich habe die Platten seperat mal an einem Rechner mit den Seatools getestet (es sind Samsung und Seagate Platten). Die Samsung Platten laufen gut durch. Die Seagateplatten klacken immer als ob der Strom weggeht und dann wiederkommt.



    http://img105.imagevenue.com/i…7_laufwerke_122_441lo.jpg
    http://img121.imagevenue.com/i…_laufwerke2_122_383lo.jpg


    Kann ich das RAID irgendwie komplett löschen per Commandkonsole und dann wieder ein neues erstellen?

    Ich habe eine seperate Festplatte für das System und eigentlich die vier Platten (sda-d) für das Raid 5 angedacht. Da wundert es mich halt das b-c angezeigt werden aber a nicht. Im Log steht dann aber started with 3 of 4 drives (ungefähr so) Es ist halt so das sich einige Dateien noch kopieren lassen viele aber nicht mehr und deswegen bin ich halt schon jetzt aufgeschmissen ... hoffentlich nicht ganz.

    MEin Raid 5 besteht laut OMV auf SDB,SDC,SDD ein SDA habe ich aber auch. Es wird also immer mit 3 out of 4 gestartet. Ich gehe nun davon aus das eine Festplatte kaputt gegangen ist und ich nun meine Daten eigentlich wiederhaben möchte. Dafür müsste doch die SDA angezogen werden oder sehe ich das falsch. Was muss ich machen um wieder ein funbktionierendes Raid zu haben und meine Daten wegzusichern?

    First of all, Thank you very much for these hints. I try to recover the data whilst OMV is recovering.


    After that I will create a new RAID5 with no spare. Is there a way to scan for HDD errors whilst creating the Raid?

    Code
    mdadm --detail --scan --verbose
    ARRAY /dev/md/Datengrab level=raid5 num-devices=4 metadata=1.2 spares=1 name=NAS:Datengrab UUID=79d94d6c:7030af53:7c7b1956:c4564987
       devices=/dev/sdb,/dev/sdd,/dev/sdc,/dev/sda
    root@NAS:~#

    Here is the syslog after a fresh restart


    https://pastebin.com/k4aWp8qG


    and here is the messages log


    https://pastebin.com/9rYDHNMm


    Code
    cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md127 : inactive sdb[1] sda[4](S) sdd[3]
          2929894536 blocks super 1.2


    I find it strange that when I type in these commands I can get on all the data in the raid but when it failed after the automized repairing the data is not usabel anymore.

    Code
    blkid
    /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f7                                                                                                                                                             8d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-ca                                                                                                                                                             aa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6a                                                                                                                                                             cd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc                                                                                                                                                             06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sde1: UUID="5e284973-7730-436e-aeb5-491c3cfe6446" TYPE="ext4"
    /dev/sde5: UUID="0f12fb13-59f7-456c-a1e7-628b8f4375a2" TYPE="swap"

    FDISK command
    https://pastebin.com/raw/RCB3q1K2


    mdadm.conf
    https://pastebin.com/a1niQBda


    mdadm
    https://pastebin.com/h73Dx9A8


    That's what I get now. But now the data is not there anymore (example a Videofile won'T play) When I restart the RAID with the mdadm commands and he recovers all files are readable again. How can I find out which hdd is faulty. When I restart the NAS I'll get the error that 2/4 hdd are not found.



    Is drive sdc corrupt? How can I determine the drive so that I don't pull the wrong one out.


    I did the following after the reboot



    Well the funny thing is that I used the mdadm command to force the raid back and it was always recovering and after a while I get clean, failed. When it recovers I see all my files and they are ok after the recovery I cannot open these files anymore.


    I used these commands


    mdadm --stop /dev/md127
    mdadm --assemble /dev/md127 /dev/sd[abcd] --verbose --force


    Now he recovers and I can get my files. But after the failed the data seems to be there but cannot be opend anymore.


    If that happens again can I somehow stop the recovering process?

    Code
    cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md127 : inactive sdb[1] sda[4](S) sdd[3]
          2929894536 blocks super 1.2
    
    
    unused devices: <none>


    BLKID

    Code
    BLKID
    /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f78d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-caaa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6acd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member"
    /dev/sde1: UUID="5e284973-7730-436e-aeb5-491c3cfe6446" TYPE="ext4"
    /dev/sde5: UUID="0f12fb13-59f7-456c-a1e7-628b8f4375a2" TYPE="swap"
    Code
    mdadm --detail --scan --verbose
    mdadm: cannot open /dev/md/Datengrab: No such file or directory

    That is the info I can give you all. My Raid has been vanished after it got to rebuild itself. In the status before the reboot was the message "clean, failed".


    Can I get the date somehow back? It is also strange that sdb sda sdd are there the sdb isn't. Maybe that could be the faulty drive?