Yeah, thanks but that don't help. I cannot tyoe in root as it gives me error command unknown (or similar) back.
Beiträge von Drake008
-
-
-
-
Klappt leider auch nicht. HAbe auch einen anderen Browser ausprobiert (FIrefox und Edge)
-
Hi,
ich kriege keine Backportskernel mehr installiert. Habe das entsprechende DEB file runtergeladen und versuche nun Backports auf enabled zu stellen. Dabei kriege ich aber immer einen Gateway error. Alles andere lässt sich jedoch installieren. Ich gehe also davon aus das es nicht an den Netztwerkeinstellungen liegt.
ICh bekomme immer den Fehler "Communication failure" ist der Backports server nicht mehr online?
-
I recently changed the Raidcard. Maybe thats the problem?
-
-
SO I have to UNMOUNT the MD0 and then I can use fsck?
-
SMART Values are all OK. How can I use this program in the correct manner?
-
This error message is the one I mean.
Is there a "checkdisk" tool for such an error or will it correct itself? -
SO ich habe jetzt mal alle Platten mit deren Testprogramm durchgeprüft und die haben alle keine Fehler. Wie kommt es dann, dass das Raid5 nicht aktiviert wird bzw. degraded ist? Es ist ahlt merkwürdig wenn ich mir den Status anzeigen lasse dann habe ich SDB,SDC,SDD. SDA ist nirgends zusehen nur ein removed steht da noch.
Coderoot@Schrank:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : active raid5 sdb[1] sdd[3] sda[2] 2929893888 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU] unused devices: <none>
Coderoot@Schrank:~# blkid /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-caaa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6acd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sde1: UUID="17309ced-091b-40a7-881b-67a91d431041" TYPE="ext4" PARTUUID="c34922aa-01" /dev/sde5: UUID="b78acade-134e-4bd7-89ff-b1da69fc43db" TYPE="swap" PARTUUID="c34922aa-05" /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f78d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/md127: LABEL="Daten" UUID="3cefb1ab-440e-4d2f-8aec-9e1c7ee6b79a" TYPE="ext4"
Coderoot@Schrank:~# mdadm --detail --scan --verbose ARRAY /dev/md127 level=raid5 num-devices=4 metadata=1.2 name=NAS:Datengrab UUID=79d94d6c:7030af53:7c7b1956:c4564987 devices=/dev/sda,/dev/sdb,/dev/sdd
Coderoot@Schrank:~# fdisk -l | grep "Disk " Disk /dev/sdd: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors Disk /dev/sde: 29.3 GiB, 31488000000 bytes, 61500000 sectors Disk identifier: 0xc34922aa Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors Disk /dev/md127: 2.7 TiB, 3000211341312 bytes, 5859787776 sectors root@Schrank:~#
-
Nein das denke ich auch.
ICh versuche euch mal zu erklären wie komisch das NAS sich verhält.
Ich kann ein paar Dateien runterladen. Kommt das NAS anscheinend an eine kaputte Datei bleibt es dort hängen und nach kurzer Zeit hängt es sich total ab. ICh sehe dann die Verzeichnisse und Dateien kann aber keine Dateien mehr kopieren. So ist der Status bei mir momentan. Ich habe die Platten seperat mal an einem Rechner mit den Seatools getestet (es sind Samsung und Seagate Platten). Die Samsung Platten laufen gut durch. Die Seagateplatten klacken immer als ob der Strom weggeht und dann wiederkommt.
http://img105.imagevenue.com/i…7_laufwerke_122_441lo.jpg
http://img121.imagevenue.com/i…_laufwerke2_122_383lo.jpgKann ich das RAID irgendwie komplett löschen per Commandkonsole und dann wieder ein neues erstellen?
-
Dann bin ich woihl aufgeschmissen. Scheinen ja dann zwei Platten kaputt zu sein
-
Ich habe eine seperate Festplatte für das System und eigentlich die vier Platten (sda-d) für das Raid 5 angedacht. Da wundert es mich halt das b-c angezeigt werden aber a nicht. Im Log steht dann aber started with 3 of 4 drives (ungefähr so) Es ist halt so das sich einige Dateien noch kopieren lassen viele aber nicht mehr und deswegen bin ich halt schon jetzt aufgeschmissen ... hoffentlich nicht ganz.
-
MEin Raid 5 besteht laut OMV auf SDB,SDC,SDD ein SDA habe ich aber auch. Es wird also immer mit 3 out of 4 gestartet. Ich gehe nun davon aus das eine Festplatte kaputt gegangen ist und ich nun meine Daten eigentlich wiederhaben möchte. Dafür müsste doch die SDA angezogen werden oder sehe ich das falsch. Was muss ich machen um wieder ein funbktionierendes Raid zu haben und meine Daten wegzusichern?
-
First of all, Thank you very much for these hints. I try to recover the data whilst OMV is recovering.
After that I will create a new RAID5 with no spare. Is there a way to scan for HDD errors whilst creating the Raid?
-
Code
mdadm --detail --scan --verbose ARRAY /dev/md/Datengrab level=raid5 num-devices=4 metadata=1.2 spares=1 name=NAS:Datengrab UUID=79d94d6c:7030af53:7c7b1956:c4564987 devices=/dev/sdb,/dev/sdd,/dev/sdc,/dev/sda root@NAS:~#
Here is the syslog after a fresh restart
and here is the messages log
Codecat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md127 : inactive sdb[1] sda[4](S) sdd[3] 2929894536 blocks super 1.2
I find it strange that when I type in these commands I can get on all the data in the raid but when it failed after the automized repairing the data is not usabel anymore.Codeblkid /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f7 8d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-ca aa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6a cd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc 06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sde1: UUID="5e284973-7730-436e-aeb5-491c3cfe6446" TYPE="ext4" /dev/sde5: UUID="0f12fb13-59f7-456c-a1e7-628b8f4375a2" TYPE="swap"
FDISK command
https://pastebin.com/raw/RCB3q1K2mdadm.conf
https://pastebin.com/a1niQBdamdadm
https://pastebin.com/h73Dx9A8That's what I get now. But now the data is not there anymore (example a Videofile won'T play) When I restart the RAID with the mdadm commands and he recovers all files are readable again. How can I find out which hdd is faulty. When I restart the NAS I'll get the error that 2/4 hdd are not found.
Is drive sdc corrupt? How can I determine the drive so that I don't pull the wrong one out.
I did the following after the reboot
Code
Alles anzeigenmdadm --stop /dev/md127 mdadm: stopped /dev/md127 root@NAS:~# mdadm --assemble /dev/md127 /dev/sd[abcd] --verbose --force mdadm: looking for devices for /dev/md127 mdadm: /dev/sda is identified as a member of /dev/md127, slot -1. mdadm: /dev/sdb is identified as a member of /dev/md127, slot 1. mdadm: /dev/sdc is identified as a member of /dev/md127, slot 2. mdadm: /dev/sdd is identified as a member of /dev/md127, slot 3. mdadm: forcing event count in /dev/sdc(2) from 46700 upto 46712 mdadm: clearing FAULTY flag for device 2 in /dev/md127 for /dev/sdc mdadm: Marking array /dev/md127 as 'clean' mdadm: no uptodate device for slot 0 of /dev/md127 mdadm: added /dev/sdc to /dev/md127 as 2 mdadm: added /dev/sdd to /dev/md127 as 3 mdadm: added /dev/sda to /dev/md127 as -1 mdadm: added /dev/sdb to /dev/md127 as 1 mdadm: /dev/md127 has been started with 3 drives (out of 4) and 1 spare.
-
Well the funny thing is that I used the mdadm command to force the raid back and it was always recovering and after a while I get clean, failed. When it recovers I see all my files and they are ok after the recovery I cannot open these files anymore.
I used these commands
mdadm --stop /dev/md127
mdadm --assemble /dev/md127 /dev/sd[abcd] --verbose --forceNow he recovers and I can get my files. But after the failed the data seems to be there but cannot be opend anymore.
If that happens again can I somehow stop the recovering process?
-
Code
cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md127 : inactive sdb[1] sda[4](S) sdd[3] 2929894536 blocks super 1.2 unused devices: <none>
BLKIDCodeBLKID /dev/sdc: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5366aea8-9876-f78d-a23e-99e6ad6fea31" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdb: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="175ea7f3-8e75-caaa-a728-75435266c481" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sda: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="5c0b0f88-e883-6acd-ce5d-bb2b95a4bb9b" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sdd: UUID="79d94d6c-7030-af53-7c7b-1956c4564987" UUID_SUB="cec25e6e-e6f8-bc06-f4c7-d33148c0f9bd" LABEL="NAS:Datengrab" TYPE="linux_raid_member" /dev/sde1: UUID="5e284973-7730-436e-aeb5-491c3cfe6446" TYPE="ext4" /dev/sde5: UUID="0f12fb13-59f7-456c-a1e7-628b8f4375a2" TYPE="swap"
Code
Alles anzeigenfdisk -l | grep "Disk " Disk /dev/sda doesn't contain a valid partition table Disk /dev/sdc doesn't contain a valid partition table Disk /dev/sdd doesn't contain a valid partition table Disk /dev/sdb doesn't contain a valid partition table Disk /dev/sde: 31.5 GB, 31488000000 bytes Disk identifier: 0x000b98c2 Disk /dev/sda: 1000.2 GB, 1000204886016 bytes Disk identifier: 0x00000000 Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes Disk identifier: 0x00000000 Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes Disk identifier: 0x00000000 Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes Disk identifier: 0x00000000
Code
Alles anzeigencat /etc/mdadm/mdadm.conf # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Mon, 29 Jun 2015 06:41:20 +0000 # by mkconf 3.2.5-5
Codemdadm --detail --scan --verbose mdadm: cannot open /dev/md/Datengrab: No such file or directory
That is the info I can give you all. My Raid has been vanished after it got to rebuild itself. In the status before the reboot was the message "clean, failed".
Can I get the date somehow back? It is also strange that sdb sda sdd are there the sdb isn't. Maybe that could be the faulty drive?
-
So there is no way for me to solve this problem?