Nach Neustart kein Raid 5 mehr

    • OMV 1.0

    This site uses cookies. By continuing to browse this site, you are agreeing to our Cookie Policy.

    • Nach Neustart kein Raid 5 mehr

      Hallo Leute,

      habe leider auch ein Problem mit einem verschwundenen Raid-Verbund nach einem Neustart des Systems. Leider komme ich mit keinem der ähnlichen Themen weiter - bin auch Frischling in Linux...

      Problem:
      Nach dem Neustart des Systemes ist das Raid nicht mehr aufgelistet in "Raid Verwaltung". Die Platten werden allerdings in "reale Festplatten" alle erkannt. Durch (erneutes) Erstellen des Raid ist das Raid wieder mit den Daten verfügbar, allerdings auch nur bis zum Neustart.
      Aktuell ist das Raid wieder nicht verfügbar.

      Hier der Output von fdisk -l

      Source Code

      1. # fdisk -l
      2. WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.
      3. Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
      4. 256 heads, 63 sectors/track, 242251 cylinders, total 3907029168 sectors
      5. Units = sectors of 1 * 512 = 512 bytes
      6. Sector size (logical/physical): 512 bytes / 4096 bytes
      7. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      8. Disk identifier: 0x00000000
      9. Device Boot Start End Blocks Id System
      10. /dev/sda1 1 3907029167 1953514583+ ee GPT
      11. Partition 1 does not start on physical sector boundary.
      12. WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.
      13. Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
      14. 256 heads, 63 sectors/track, 242251 cylinders, total 3907029168 sectors
      15. Units = sectors of 1 * 512 = 512 bytes
      16. Sector size (logical/physical): 512 bytes / 4096 bytes
      17. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      18. Disk identifier: 0x00000000
      19. Device Boot Start End Blocks Id System
      20. /dev/sdb1 1 3907029167 1953514583+ ee GPT
      21. Partition 1 does not start on physical sector boundary.
      22. WARNING: GPT (GUID Partition Table) detected on '/dev/sdc'! The util fdisk doesn't support GPT. Use GNU Parted.
      23. Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
      24. 256 heads, 63 sectors/track, 242251 cylinders, total 3907029168 sectors
      25. Units = sectors of 1 * 512 = 512 bytes
      26. Sector size (logical/physical): 512 bytes / 4096 bytes
      27. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      28. Disk identifier: 0x00000000
      29. Device Boot Start End Blocks Id System
      30. /dev/sdc1 1 3907029167 1953514583+ ee GPT
      31. Partition 1 does not start on physical sector boundary.
      32. Disk /dev/sdd: 30.0 GB, 30005821440 bytes
      33. 255 heads, 63 sectors/track, 3648 cylinders, total 58605120 sectors
      34. Units = sectors of 1 * 512 = 512 bytes
      35. Sector size (logical/physical): 512 bytes / 512 bytes
      36. I/O size (minimum/optimal): 512 bytes / 512 bytes
      37. Disk identifier: 0x00064e62
      38. Device Boot Start End Blocks Id System
      39. /dev/sdd1 * 2048 56125439 28061696 83 Linux
      40. /dev/sdd2 56127486 58603519 1238017 5 Extended
      41. /dev/sdd5 56127488 58603519 1238016 82 Linux swap / Solaris
      Display All


      output von blkid

      Source Code

      1. # blkid
      2. /dev/sdd1: UUID="6adef3a6-abfd-49f6-b063-3b2483f2594d" TYPE="ext4"
      3. /dev/sdd5: UUID="edaebc5a-1f0e-4f39-a034-74d84fed2c8b" TYPE="swap"


      output von cat...

      Source Code

      1. # cat /proc/mdstat
      2. Personalities :
      3. unused devices: <none>


      Zudem ist mir in Systemprotokolle -> Booten folgendes aufgefallen:

      Source Code

      1. Mon Jan 5 17:55:53 2015: Setting parameters of disc: /dev/sda.
      2. [b]Mon Jan 5 17:55:53 2015: /dev/sdb failed![/b]
      3. Mon Jan 5 17:55:53 2015: /dev/sdc.
      4. Mon Jan 5 17:55:53 2015: /dev/sdd.
      5. Mon Jan 5 17:55:53 2015: /dev/sdb.
      6. Mon Jan 5 17:55:53 2015: /dev/sdc.
      7. Mon Jan 5 17:55:53 2015: /dev/sda.
      8. Mon Jan 5 17:55:53 2015: Activating swap...done.
      9. Mon Jan 5 17:55:53 2015: Checking root file system...fsck from util-linux 2.20.1
      10. Mon Jan 5 17:55:53 2015: /dev/sdd1: clean, 32115/1754400 files, 412784/7015424 blocks
      11. Mon Jan 5 17:55:53 2015: done.
      12. Mon Jan 5 17:55:53 2015: Loading kernel module loop.
      13. Mon Jan 5 17:55:53 2015: Cleaning up temporary files... /tmp.
      14. Mon Jan 5 17:55:54 2015: Generating udev events for MD arrays...done.
      15. Mon Jan 5 17:55:54 2015: Setting up LVM Volume Groups... No volume groups found
      16. Mon Jan 5 17:55:54 2015: No volume groups found
      17. Mon Jan 5 17:55:54 2015: done.
      18. Mon Jan 5 17:55:54 2015: Activating lvm and md swap...done.
      19. Mon Jan 5 17:55:55 2015: Checking file systems...fsck from util-linux 2.20.1
      20. Mon Jan 5 17:55:55 2015: done.
      21. Mon Jan 5 17:55:55 2015: Mounting local filesystems...done.
      22. Mon Jan 5 17:55:56 2015: Activating swapfile swap...done.
      23. Mon Jan 5 17:55:56 2015: Cleaning up temporary files....
      24. Mon Jan 5 17:55:56 2015: Cleaning up...done.
      25. Mon Jan 5 17:55:56 2015: Setting kernel variables ...done.
      26. Mon Jan 5 17:55:56 2015: Setting up resolvconf...done.
      27. Mon Jan 5 17:55:58 2015: Configuring network interfaces...RTNETLINK answers: File exists
      28. Mon Jan 5 17:55:59 2015: Failed to bring up lo.
      29. Mon Jan 5 17:56:00 2015: done.
      30. Mon Jan 5 17:56:00 2015: Starting rpcbind daemon....
      31. Mon Jan 5 17:56:01 2015: Starting NFS common utilities: statd idmapd.
      32. Mon Jan 5 17:56:01 2015: Cleaning up temporary files....
      33. Mon Jan 5 17:56:01 2015: INIT: Entering runlevel: 2
      34. Mon Jan 5 17:56:01 2015: Using makefile-style concurrent boot in runlevel 2.
      35. Mon Jan 5 17:56:02 2015: Starting rpcbind daemon...Already running..
      36. Mon Jan 5 17:56:02 2015: Starting NFS common utilities: statd idmapd.
      37. Mon Jan 5 17:56:02 2015: Starting watchdog keepalive daemon: wd_keepalive.
      38. Mon Jan 5 17:56:05 2015: Starting enhanced syslogd: rsyslogd.
      39. Mon Jan 5 17:56:06 2015: Starting anac(h)ronistic cron: anacron.
      40. Mon Jan 5 17:56:06 2015: Loading ACPI kernel modules....
      41. Mon Jan 5 17:56:06 2015: Starting ACPI services....
      42. Mon Jan 5 17:56:06 2015: Starting MD monitoring service: mdadm --monitor.
      43. Mon Jan 5 17:56:07 2015: Starting RRDtool data caching daemon: rrdcached.
      44. Mon Jan 5 17:56:08 2015: Starting periodic command scheduler: cron.
      45. Mon Jan 5 17:56:10 2015: Starting system message bus: dbus.
      46. Mon Jan 5 17:56:13 2015: Starting statistics collection and monitoring daemon: collectd.
      47. Mon Jan 5 17:56:13 2015: Starting nginx: nginx.
      48. Mon Jan 5 17:56:13 2015: Starting Avahi mDNS/DNS-SD Daemon: avahi-daemon.
      49. Mon Jan 5 17:56:13 2015: Starting NTP server: ntpd.
      50. Mon Jan 5 17:56:13 2015: Starting OpenBSD Secure Shell server: sshd.
      51. Mon Jan 5 17:56:14 2015: Starting Samba daemons: nmbd smbd.
      52. Mon Jan 5 17:56:14 2015: Starting OpenMediaVault engine daemon: omv-engined.
      53. Mon Jan 5 17:56:15 2015: Starting S.M.A.R.T. daemon: smartd.
      54. Mon Jan 5 17:56:15 2015: Starting ClamAV daemon: clamd .
      55. Mon Jan 5 17:56:40 2015: Starting ClamAV virus database updater: freshclam.
      56. Mon Jan 5 17:56:40 2015: Starting Postfix Mail Transport Agent: postfix.
      Display All


      zero-superblock habe ich auch schon probiert... kommt aber eine Fehlermeldung:

      Source Code

      1. # mdadm --zero-superblock /dev/sdb
      2. mdadm: Unrecognised md component device - /dev/sdb


      Backround:
      Will mir mein eigenes NAS zusammen bauen und wählte ein ASRock QC5000-ITX/PH inkl. AMD A4-5000 mit 3x2TB (2 davon neu, 1 gebrauchte aus einem Windows Rechner ohne Raid) und CFI A-7879 V2 Gehäuse.
      Als erstes baute ich das NAS mit NAS4free auf, was mich allerdings nicht zufriedenstellte.
      Dann hab ich das NAS mit OMV 1.0.20_amd64 aufgesetzt und als Systemlaufwerk eine gebrauchte USB2.0 externe Platte gewählt.
      Die erste Installation schlug "fehl", da der Bootmanager nicht installiert werden konnte, weil ich die Platten eingesetzt hatte.
      Nach erfolgreichem 2. Versuch hab ich erstmal alle Updates geladen und installiert, die Platten formatiert und das Raid erstellen lassen (alles im OMV).
      Dateisysteme habe ich auch konfiguriert und Daten auf die Platten geschoben.
      Hab alles über den Browserzugang konfiguriert.

      Die geposteten Codes sind über Putty ausgeworfen worden.
      Vlt. kann mir ja einer weiterhelfen.
    • Hey @bene,

      der RAID-Experte hier ist ryecoaaron. Bitte eröffne unter der entsprechenden Rubrik im Forum einen neuen Thread, beschreibe auf englisch detailliert Deine Probleme (evtl. hilft google- translate dabei) und erwähne dabei den Nick ryecoaaron, indem Du diesem Nick ein @ voranstellst.

      Wenn er Zeit hat, wird er Dir ganz sicher helfen, das Problem zu lösen. Ein wenig Geduld wirst Du haben müssen, bis er antwortet.


      Viele Grüße.
    • Also ich kann hier nur auf den 1. Therad referenzieren.

      Da steht ein Teil der Antwort was auf jeden Fall mal falsch ist, und gerne auch immer wieder falsch gemacht wird.

      Grundsatz:
      Auf Platten die ausschließlich in einem Raidverbund sollen, gehören im Grundsatz keine Partitionen, ja noch nicht mal eine Partitionstabelle.
      Das Problem besteht mit Sicherheit darin, daß mdadm nicht dir richtigen Partitionen scanned und sicher keine mit GPT. Auffällig ist schon , daß blkid nichts anzeigt von den Platten.

      Es gibt natürlich wie immer Ausnahmen für sonderfälle, auf die will ich hier aber nicht eingehen.

      So also was bedeutet das:

      ACHTUNG ALLE DATEN SIND DANN WEG!
      Alle platten wipen und zwar richtig:
      dd if=/dev/zero of=/dev/sdX size=2M

      hier ist darauf zu achten, die richtigen sdX auszuwählen, also z.B. sdb oder sdc etc. pp. Achtet unbedingt darauf nicht die Platte zu nehmen wo OMV installiert ist - dann ist da nichts mehr drauf und Ihr könnt von vorne Anfangen.

      Danach dann mit OMV wieder die Platte zu einem Raid verknüpfen. Dann die nächsten Schritte (LVM/Filesystem etc. pp.).
      Everything is possible, sometimes it requires Google to find out how.