Posts by The Thargoid

    Das ist mir jetzt Peinlich!


    Warum zum Geier im Bios die Netzwerkkarten deaktiviert waren kann ich nicht sagen, ich zumindest hatte nur die PXE Boot Option abgeschaltet.


    Netzwerkschnittstellen aktiviert und die OMV erkennt die Netzwerkkarten ohne Probleme.


    Vielen dank fürs nachschauen Thomas.


    Grüße, solved & closed

    Hallo zusammen,


    ich versuche gerade die aktuelle OMV auf einen HP Microserver G1610T zu installieren was mir wegen der Broadcom Netzwerkkarte nicht gelingen will.
    Eigentlich hätte ich lieber einen HP Microserver N54L gehabt aber die sind nicht mehr lieferbar.


    Die Installation lief ohne Probleme durch, die Installationsplatte ist im ersten Schacht, drei weitere sind in den Schächten 2-4 und haben je 2 TB was in einem Softwareraid lvl 5 wunderbar funktioniert.


    Um die Installation überhaupt fertig zu bekommen habe ich in den freien PCIe Slot eine Intel Netzwerkkarte eingebaut und darüber die Konfiguration gemacht.


    Die Netzwerkkarte die nicht erkannt wird ist eine NC332i die direkt auf dem Mainboard ist mit jeweils zwei 1Gbit Ports, der Chipsatz ist von Broadcom BCM5720.


    Treiber gibt es von Broadcom nur im .rpm Format, diese Treiber habe ich mit dem Tool Alien in .deb umgewandelt und danach installiert.


    Trozdem findet omv-firstaid die Broadcom Netzwerkkarten nicht.


    Ich kenne mich nicht besonderst gut in Debian aus, hätte mir jemand einen Rat wie ich die Netzwerkkarten zum laufen bringe?


    Grüße

    Servus zusammen,


    ich versuche gerade zwei neue HP MicroServer n54l zu installieren und habe ein kleines Problem.
    Meinen eigenen n54l habe ich mit einem 3Ware Controller ohne Probleme zum laufen gebracht und habe auch maximale Datentransferraten per CIFS.


    Die Installation verläuft einwandfrei und am ende habe ich 5 Platten die ich im Menü "Physical Disk" auch sehe. 1 Platte (SDA) mit dem System und 4 weitere Platten SDB - SDE für den Store.
    Beim erstenmal konnte ich die Platten zu einem Raid5 konfigurieren und eine Freigabe erstellen jedoch habe ich das Raid wieder aufgelöst und mit dem Fakeraid vom Mainboard ein Raid10 erstellt (die i/o Performance war einfach zu lausig mehr als 9 MB/Sek. war nicht drin).
    OMV erkennt leider die AMD Fakeraid Konfig nicht also alles wieder aufgelöst und neu installiert da ich die Platten nach dem rückgänig machen der Raidconfig nicht mehr auswählen konnte.


    Jetzt habe ich eine frische Installation bei der ich die Platten alle unter "Physical Disk" sehe aber wen ich versuche die zu einem Filesystem oder einem Raid zu machen kann ich keine der 4 Platten auswählen.
    Auf den Platten ist keine Partition mehr vorhanden, ich habe auch versucht von Hand eine GPT auf die Platten zu schreiben aber auch ohne Erfolg.


    Was mache ich falsch?
    Grüße The Thargoid

    Servus zusammen,


    wir verwenden lange Zeit immer nur ein Standartboard das wir immer auf Lager haben und somit bei Desasterfälle schnell helfen können.
    Die letzen Jahre war das X8DTi-F eine gute Wahl da es mit allen gänigen Linux Distributionen keine Probleme macht und von vmWare für ESXI 4.0-5.1 zertifiziert ist.
    Natürlich müssen auch wir ab und zu mit der Zeit gehen ;-) und somit ist mir das Board X9DRE-TF+ aufgefallen das zumindest schon mal für vmWare zertifiziert wurde.


    Spannend ist der Onboard Dual 10GB X540 Adapter von Intel, für eine Shortrange Verkabelung völlig ausreichend und Preislich günstiger als andere Boards nachträglich mit 10GB Adapter auszurüsten.


    Ich werd mal unseren Vertriebler auf den Geist gehen und mir noch mal die Kalkulation geben lassen, auf jeden Fall eine preisliche Alternative.


    Grüße
    The Thargoid


    PS: Der XS708E 10gbe Switch von Netgear für unter 800 Euro und 8 Ports ist perfekt für den Aufbau eines SAN's, das sind endlich die ersten Zeichen für eine Verbreitung des Standarts

    Servus datadigger,


    Angeschlossen werden nur zwei ESXI Hosts auf dennen "nur" 6 VM's laufen werden allerdings alle bis auf eine Verwaltungsmaschine sind Server.
    Zur Zeit kann ich leider keine Tests damit fahren da ich das System zu einem "Notfall ESXI" umkonfiguriert habe.


    Wir installieren Storage Server bis jetzt nur mit Openfiler auf ISCSI Basis und 10 GB Karten, teilweise auch als Active-Passiv Cluster mit DRBD und Corosync als Clustermanagement.
    Cluster konfigurieren wird auch sehr spannend mal sehen wie das auf Debian basis läuft. Auf jeden Fall liefert das Board alles was man dazu braucht und die IPMI schnittstelle ist perfekt für STONITH.


    Das nächste mal werden wir hoffentlich auf die neueren Board von Supermicro umsteigen die schon die 10 GB Schnittstellen auf CAT7 Basis onboard haben.


    Bis bald.
    The Thargoid

    Servus zusammen,


    ich bin gerade mit der Installation von einem iSCSI Storage Server mit OMV fertig und wollte euch einige Informationen zukommen lassen mit denen Ihr eventuell einige Probleme umschiffen könnt.


    Grund der Installation:
    Storage Server for two vmWare ESXi 5.1 Server over 10 GBit Ethernet iSCSI


    Warum OMV?
    Bessere Hardware Unterstützung als bei OpenFiler, erhoffe mir wegen der Basis auf Debian mehr Kompatibilität und bessere Unterstützung bei neuerer Hardware.
    Sehr positive Erfahrung mit meinem HP Microserver N54 der bei mir privat als NAS läuft.


    Verwendete Hardware:
    Mainboard: Supermicro X8DTi-F rev. 2.01, Bios release 2.1
    Storage Controller for LUN: Adaptec 6805, Bios Build 19109 incl. Adaptec AFM-600 NAND Modul (BBU auf Kondensator Basis mit 4 GB NAND Speicher)
    Raid Controller for OS: ICP Vortex GDT8546RZ Bios release 7.05D RAIDYNE Firmware 2.44.02-RC7B
    HBA: Intel Ethernet Convergend Network Adapter X520 DA2 (Dual 10 GB)
    HDD for LUN: 8 x Western Digital RE4 1TB WD1003FBYX-01Y7B Rev. 01.01V02
    HDD for OS: 2 x Western Digital 160 GB WD1600JS-55N
    Weitere Hardware Infos sind wohl nicht relevant ich werde die Liste noch ergänzen und auch Preis Infos hinzufügen.


    Nachdem ich die Installation CD gebootet habe blieb gleich im Linux loader mit blinkendem Cursor hängen, aufgrund von einiger Forumsbeiträgen bin ich auf den Tip gebracht worden die COM ports abzuschalten.
    Das alleine brachte keine Besserung, das Board verfügt über ein IPMI Modul was technisch gesehen über COM3 mit dem Mainboard verbunden ist, selbst diese Abschaltung des Moduls über das Bios war aber erfolglos. Erst die Abschaltung der IMPI Device über den Jumper JPB direkt auf dem Mainboard brachte den Erfolg.


    Nachdem diese Hürde genommen war lief die Installations Routine, jedoch gab es noch ein Problem mit der Installation des GRUB Bootloaders. Die Festplatten für OMV sind als Raid1 auf dem ICP Controller angelegt und bekommen die Zuordnung SDB, die des Raid10 auf dem Adaptec SDA, nun versucht die Installationsroutine auf SDA den Bootblock anzulegen jedoch ohne Erfolg (was ja auch falsch wäre).
    Nachdem ich den Adaptec Controller ausgebaut und nur mit dem ICP gebootet hatte lief die Installation sauber durch.
    Nach der erfolgreichen Installation habe ich IPMI wieder aktiviert und den Adaptec Controller eingebaut, beide Geräte sind nun auch unter OMV einwandfrei verfügbar.


    Die 10 GB Karte ist einwandfrei erkannt worden und ich konnte ohne weitere Probleme das iSCSI Plugin installieren und ein Target auf das Adaptec Raid anlegen was ich mit zwei ESXi 5.1 Server verbunden habe.


    Der nächste Schritt wird die Installion der Adaptec Treiber sein um den Raidcontroller Status überwachen zu können und eventuell auch die ICP Treiber.


    Weiter ist auch die Implementierung von Nagios zur Überwachung geplant.


    IOMeter Benchmarks werde ich noch nachreichen und den Post aktualisieren, fürs erste bin ich jedoch sehr zufrieden mit OMV.


    Grüße
    The Thargoid