Supermicro X8DTi-F Installation

  • Servus zusammen,


    ich bin gerade mit der Installation von einem iSCSI Storage Server mit OMV fertig und wollte euch einige Informationen zukommen lassen mit denen Ihr eventuell einige Probleme umschiffen könnt.


    Grund der Installation:
    Storage Server for two vmWare ESXi 5.1 Server over 10 GBit Ethernet iSCSI


    Warum OMV?
    Bessere Hardware Unterstützung als bei OpenFiler, erhoffe mir wegen der Basis auf Debian mehr Kompatibilität und bessere Unterstützung bei neuerer Hardware.
    Sehr positive Erfahrung mit meinem HP Microserver N54 der bei mir privat als NAS läuft.


    Verwendete Hardware:
    Mainboard: Supermicro X8DTi-F rev. 2.01, Bios release 2.1
    Storage Controller for LUN: Adaptec 6805, Bios Build 19109 incl. Adaptec AFM-600 NAND Modul (BBU auf Kondensator Basis mit 4 GB NAND Speicher)
    Raid Controller for OS: ICP Vortex GDT8546RZ Bios release 7.05D RAIDYNE Firmware 2.44.02-RC7B
    HBA: Intel Ethernet Convergend Network Adapter X520 DA2 (Dual 10 GB)
    HDD for LUN: 8 x Western Digital RE4 1TB WD1003FBYX-01Y7B Rev. 01.01V02
    HDD for OS: 2 x Western Digital 160 GB WD1600JS-55N
    Weitere Hardware Infos sind wohl nicht relevant ich werde die Liste noch ergänzen und auch Preis Infos hinzufügen.


    Nachdem ich die Installation CD gebootet habe blieb gleich im Linux loader mit blinkendem Cursor hängen, aufgrund von einiger Forumsbeiträgen bin ich auf den Tip gebracht worden die COM ports abzuschalten.
    Das alleine brachte keine Besserung, das Board verfügt über ein IPMI Modul was technisch gesehen über COM3 mit dem Mainboard verbunden ist, selbst diese Abschaltung des Moduls über das Bios war aber erfolglos. Erst die Abschaltung der IMPI Device über den Jumper JPB direkt auf dem Mainboard brachte den Erfolg.


    Nachdem diese Hürde genommen war lief die Installations Routine, jedoch gab es noch ein Problem mit der Installation des GRUB Bootloaders. Die Festplatten für OMV sind als Raid1 auf dem ICP Controller angelegt und bekommen die Zuordnung SDB, die des Raid10 auf dem Adaptec SDA, nun versucht die Installationsroutine auf SDA den Bootblock anzulegen jedoch ohne Erfolg (was ja auch falsch wäre).
    Nachdem ich den Adaptec Controller ausgebaut und nur mit dem ICP gebootet hatte lief die Installation sauber durch.
    Nach der erfolgreichen Installation habe ich IPMI wieder aktiviert und den Adaptec Controller eingebaut, beide Geräte sind nun auch unter OMV einwandfrei verfügbar.


    Die 10 GB Karte ist einwandfrei erkannt worden und ich konnte ohne weitere Probleme das iSCSI Plugin installieren und ein Target auf das Adaptec Raid anlegen was ich mit zwei ESXi 5.1 Server verbunden habe.


    Der nächste Schritt wird die Installion der Adaptec Treiber sein um den Raidcontroller Status überwachen zu können und eventuell auch die ICP Treiber.


    Weiter ist auch die Implementierung von Nagios zur Überwachung geplant.


    IOMeter Benchmarks werde ich noch nachreichen und den Post aktualisieren, fürs erste bin ich jedoch sehr zufrieden mit OMV.


    Grüße
    The Thargoid

  • Klingt interessant. Wieviele VM sollen darauf laufen?
    Zur Zeit habe ich die nicht lokal auf den Hosts laufenden VM auf einem QNAP 879 gespeichert, insgesamt 19 VM und über NFS angebunden. Das kommt locker hin.
    Allerdings denke ich über eine Ablösung nach, wenn das QNAP wieder zickt. Das war im Januar kaputt gegangen und obwohl noch Garantie darauf war hat es bis Mitte Juli gedauert, bis es nach drei (!) Reparaturen in Holland wieder funktionsfähig zurückkam. Das mach ich nicht noch einmal mit. In der Zeit hatte ich ein, na was wohl, OMV-NAS auf einem älteren Dell 2900 laufen und das funktionierte prächtig.
    Das nächste größere NAS wird sicher kein QNAP mehr, da kommt etwas selbst gebautes auf OMV-Basis hin. Daher interessiert mich das schon, was Du da gebaut hast. Wie macht sich das denn in der Praxis?

    Homebox: Bitfenix Prodigy Case, ASUS E45M1-I DELUXE ITX, 8GB RAM, 5x 4TB HGST Raid-5 Data, 1x 320GB 2,5" WD Bootdrive via eSATA from the backside
    Companybox 1: Standard Midi-Tower, Intel S3420 MoBo, Xeon 3450 CPU, 16GB RAM, 5x 2TB Seagate Data, 1x 80GB Samsung Bootdrive - testing for iSCSI to ESXi-Hosts
    Companybox 2: 19" Rackservercase 4HE, Intel S975XBX2 MoBo, C2D@2200MHz, 8GB RAM, HP P212 Raidcontroller, 4x 1TB WD Raid-0 Data, 80GB Samsung Bootdrive, Intel 1000Pro DualPort (Bonded in a VLAN) - Temp-NFS-storage for ESXi-Hosts

  • Servus datadigger,


    Angeschlossen werden nur zwei ESXI Hosts auf dennen "nur" 6 VM's laufen werden allerdings alle bis auf eine Verwaltungsmaschine sind Server.
    Zur Zeit kann ich leider keine Tests damit fahren da ich das System zu einem "Notfall ESXI" umkonfiguriert habe.


    Wir installieren Storage Server bis jetzt nur mit Openfiler auf ISCSI Basis und 10 GB Karten, teilweise auch als Active-Passiv Cluster mit DRBD und Corosync als Clustermanagement.
    Cluster konfigurieren wird auch sehr spannend mal sehen wie das auf Debian basis läuft. Auf jeden Fall liefert das Board alles was man dazu braucht und die IPMI schnittstelle ist perfekt für STONITH.


    Das nächste mal werden wir hoffentlich auf die neueren Board von Supermicro umsteigen die schon die 10 GB Schnittstellen auf CAT7 Basis onboard haben.


    Bis bald.
    The Thargoid

  • 10GB und CAT7 on board? Ich bitte um mehr infos :)


    Gruß
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

  • Servus zusammen,


    wir verwenden lange Zeit immer nur ein Standartboard das wir immer auf Lager haben und somit bei Desasterfälle schnell helfen können.
    Die letzen Jahre war das X8DTi-F eine gute Wahl da es mit allen gänigen Linux Distributionen keine Probleme macht und von vmWare für ESXI 4.0-5.1 zertifiziert ist.
    Natürlich müssen auch wir ab und zu mit der Zeit gehen ;) und somit ist mir das Board X9DRE-TF+ aufgefallen das zumindest schon mal für vmWare zertifiziert wurde.


    Spannend ist der Onboard Dual 10GB X540 Adapter von Intel, für eine Shortrange Verkabelung völlig ausreichend und Preislich günstiger als andere Boards nachträglich mit 10GB Adapter auszurüsten.


    Ich werd mal unseren Vertriebler auf den Geist gehen und mir noch mal die Kalkulation geben lassen, auf jeden Fall eine preisliche Alternative.


    Grüße
    The Thargoid


    PS: Der XS708E 10gbe Switch von Netgear für unter 800 Euro und 8 Ports ist perfekt für den Aufbau eines SAN's, das sind endlich die ersten Zeichen für eine Verbreitung des Standarts

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!