Netzwerkarten Bündeln (bond)

    • OMV 2.x
    • Niemand wird sich hier streiten, ich auf jeden Fall nicht! :)

      Fakt ist, dass ich in meinem Leben viel teilweise unsinnige Hardware gekauft habe. Nun möchte ich andere User hier davor bewahren, den gleichen Fehler zu machen. Hardware egal welcher Art hat leider nur eine kurze Halbwertszeit, dann ist sie "out" und was neues kommt nach. Oftmals lohnt es sich einfach nicht, "über jedes Stöckchen zu springen".

      Warum also sollte sancho neue Hardware kaufen, wenn er doch alles erforderliche schon zuhause hat? Nicht zuletzt der Umwelt zuliebe kann man ressourcenschonender vorgehen.

      Alles ist gut und weiterhin frohes Schaffen.
    • @bonkersGER Gut gemacht! Ich brauche also lediglich im NAS den entsprechenden Bonding-Modus zu konfigurieren und schon funktioniert das? Ich stecke in einen zum OMV umfunktionierten Destop-PC in alle drei freien PCI-Slots jeweils eine Intel-NIC und habe inkl. der onboard-Schnittstelle dann 4 Möglichkeiten, mithilfe des Baumarkt-8Port-Switches richtig schnelle Durchsätze zu den einzelnen Netzwerkclients zu schaffen? Clientseitig ist hier außerdem noch ein 8-Port-Baumarktswitch vorhanden, also sind das zwei dieser Teile.

      Vom OMV-NAS 4 Patchkabel zum 8-Port-Switch Nr. 1, ein Patchkabel von Switch Nr. 1 zu Switch Nr. 2 und im restlichen LAN die Patchkabel vom 8-Port-Switch Nr. 2 zu den Clients; warum habe ich das nicht schon viel früher gewusst?
    • Nein das wird nicht funktionieren denn zwischen Switch 1 und 2 eine eine "Autobahn" mit einer Spur pro Richtung ist.

      Bei dem ganzen Thema ist auch zu berücksichtigen ob die verbauten Festplatten überhaupt genug Daten bereitstellen können.

      Wenn man eh nicht oft große Daten von zwei oder mehr Rechnern gleichzeitig auf oder von dem NAS kopiert ist bonding total überflüssig.
      NAS: Fractal Design Define R4 | Intel Xeon E3-1265L-v3 | Kernel: 4.18 | ASRock Rack E3C224-4L | 32GB ECC RAM | System: Crucial M500(250GB) | LSI 9260-8i - RAID0: 2x Samsung 850 EVO (250GB) + 2x Intel SSD (230G) | LSI 9270-8i - 6x WD Red 6 TB RAID5
    • @bonkersGER OK, falsch gedacht. Ist klar, zwischen den zwei Switches müsste dann eine "Autobahn" mit zwei Spuren in jeder Richtung sein. Mit den Baumarkt-Switches kann man kein Trunking machen, ansonsten hätte ich einfach mit zwei Patchkabeln die beiden Switches verbunden. Also doch managed Switches ...

      EDIT:
      Ich habe eben mal in meine OMV 3.0.13 Testkiste drei Intel-NICS reingesteckt und habe im OMV inkl. der onboard-Schnittstelle vier IP-Adressen konfiguriert. Alle 4 sind GBit-Interfaces. Nun könnte ich theoretisch an diesen Switch Nr. 1 vier Clients anschließen und jeweils mit einer separaten IP-Adresse das OMV-NAS ansprechen und entsprechenden Durchsatz erzeugen. Das probiere ich morgen aus und schreibe hier wieder.

      The post was edited 1 time, last by omavoss ().

    • Mein Versuchsaufbau hat ergeben, dass eine solche Konfiguration tatsächlich funktioniert! Es ist doch erstaunlich, was man hier alles lernen kann, wenn man sich mit Netzwerkdingen auseinandersetzt. Da wird der OMV fast zur Nebensache! Natürlich kommt meine OMV-Testmaschine dabei an ihre Leistungsgrenzen, die Prozessorlast geht permanent auf 100 Prozent, die HDD schaffen den Durchsatz nicht; aber trotzdem, es funktioniert.

      Danke und viele Grüße.

      The post was edited 1 time, last by omavoss ().

    • Wenn jede deiner NIC's eine eigene IP-Adresse hat hast du aber kein Bonding eingerichtet.

      Jetzt ist dein NAS einfach nur unter 4 IP-Adressen erreichbar

      Durch Bonding würdest dein NAS über eine IP erreichen.
      NAS: Fractal Design Define R4 | Intel Xeon E3-1265L-v3 | Kernel: 4.18 | ASRock Rack E3C224-4L | 32GB ECC RAM | System: Crucial M500(250GB) | LSI 9260-8i - RAID0: 2x Samsung 850 EVO (250GB) + 2x Intel SSD (230G) | LSI 9270-8i - 6x WD Red 6 TB RAID5
    • Hallo zusammen,

      ich muss diesen schon älteren Beitrag nochmals hochholen.
      Ich hatte vor kurzem auch ein Bonding mit zwei Schnittstellen eingerichtet. So wie auf der ersten Seite als Anleitung beschrieben.
      Aber wie funktioniert denn der Weg zurück? Also wenn ich Bonding wieder deaktivieren und nur eth0 oder eth1 benutzen möchte.
      Irgendwie klappt das nicht. Sobald ich etwas am Bonding ändere, habe ich sofort keinen Zugriff mehr über das Netzwerk.
      Oder muss ich das auf der Konsole ändern? Wenn ja wie?
    • Das habe ich auch schon beobachtet - da kam ich danach nur direkt am Gerät über omv-firstaid wieder dran ... oder direkt mittels omv-firstaid ändern, solange noch eine Verbindung besteht? Dann könnte der Server doch ohne BS bleiben ...

      Btw. was sollte denn bei MTU eingetragen werden? Defaultwert ist ja 0.
      Und sollte im Switch ggf. die beiden Schnittstellen auch mittels LAG-Einstellungen zusammen gefasst werden?

      Gruß, Christoph
      ProLiant MicroServer Gen8 (Intel(R) Celeron(R) CPU G1610T @ 2.30GHz), 12GB Ram,40GB Bootdisk, 3* 4TB WD Red (Raid5) | omv 3.0.54 erasmus | 64 bit | 4.6.0-0.bpo.1-amd64 | omvextrasorg 3.4.9