OPNsense: OpenVPN, FRR und OSPF (QAD)

Quick and Dirty Howto wie man einen OpenVPN Tunnel ins OSPF aufnimmt. In meiner Testumgebung bilden zwei OpenVPN Tunnel im TUN Mode die Area 0.0.0.0 und das jeweils dahinter liegende Testnetz 192.168.30.0/24 die Area 0.0.0.1 und 192.168.40/24 die Area 0.0.0.2.

Die beiden Tunnel nutzen das Netz 172.31.55.0/30 und 172.31.56.0/30. Leider ging es mit dem nächsten /30 Netz von 172.31.55 nicht. Es musste ein neues Netzsegment genutzt werden. Kann natürlich auch ein Bug in FRR sein. Jedenfalls wird ein „OpenVPN“ Interface in OPNsense erzeugt. In FRR muss dieses Interface mit in die OSPF Konfiguration:

Danach die Areas und die zu distributierenden Netzwerke definieren:

Und schon sieht man das gegenüberliegende Netz in der Routingtabelle:

Mimosa Wifi PTP Bridge Failover mit Mikrotik Router

In unserer Firmengruppe wurde eine Lagerhalle, die sich in Sichtweite auf einem anderen Grundstück befindet, mit einer Wifi Bridge ans Firmennetz angebunden. Eine schwache 1MBit VPN Leitung konnte damit abgelöst werden. Als primäre Bridge habe ich mich für Funktechnik von Mimosa entschieden. Diese schafft es auf 520MBit. Als Failover Richtfunkstrecke kommt günstigere Technik mit weniger Bandbreite von Mikrotik zum Einsatz. Beide Bridges waren direkt an Cisco Switche angeschlossen. Failover mit STP war möglich, aber bei kleinen „wacklern“ auf der Funkstrecke musste der STP jedesmal neu berechnet werden und hat zum Ausfall mehrerer Dienste geführt. LACP habe ich versucht, wurde aber eines Besseren belehrt was asynchrone Bandbreite und Latenzen im LACP so anstellt. Es ist einfach nicht möglich. Also musste etwas her das ich von Linux nativ als „Bonding Mode“ kenne. Mikrotik Routerboards können neben LACP (IEEE 802.3ad) auch die Linux Bonding Modes. Also zwei Routerboards gekauft und die zwei Richtfunkstrecken im Bonding-Mode in eine Software-Bridge gepackt. Läuft wunderbar im Aktiv/Passiv Modus und schaltet auch sehr schnell um. Somit kriegen die Cisco Switche und deren STP nichts von den „wacklern“ auf den Funkstrecken mit.

Labortest mit OPNsense (Sophos UTM Ersatz?)

Ich betreibe pfSense schon seit dem Ende der M0n0wall auf einigen Produktivsystemen im Kundeneinsatz. Nun wollte ich mir den Fork „OPNsense“ mal genauer ansehen, weil dieser selbst vom ehemaligen Entwickler der M0n0wall empfohlen wird, und habe eine gößere Testinstallation in meiner VMware Umgebung ausgerollt. Ich habe alles ausprobiert was ich immer so in einer Netzwerkinfrakstruktur simuliere: MultiWAN, AD Integration, HA Proxy, Postfix Mailgate und dynamisches Routing über VPN Tunnel mit routed IPsec und OpenVPN. Das MultiWAN simuliere ich über einen ebenfalls virtuellen Mikrotik Router der vier WAN Interfaces bereit stellt. Hochverfügbarkeit ist ebenfalls in Form von CARP verfügbar.
Eins vorab: Eine Sophos UTM (vor allem nur mit Network Protection) kann man damit locker ersetzen! IT Entscheider sollten sich folgende Frage stellen: „Kann ich auf externe Ressourcen und Support zurückgreifen die mich unterstützen?“. Open Source ist gut – aber sie will auch verstanden und beherrscht werden. Sophos UTM oder XG bieten viele Systemhäuser an und es ist genug Know How auf dem Markt vorhanden. Daher hat die kommerzielle Variante mit ihren Kosten für evtl. Appliance Garantie und Support auch ihre Berechtigung. Auch wenn unter der Haube fast alle Dienste identisch sind und man sich nur durch die GUI unterscheidet. Ich versuche mal erste Eindrücke zur freien OPNsense mit Hilfe von Screenshots zu vermitteln. Wie gesagt, sie ist ein mächtiges Werkzeug und es geht hier nur um die Weitergabe meiner Erkenntnisse. Ich konnte jedenfalls alle Einsatzszenarien der UTM in unserem Unternehmen sehr einfach mit OPNsense abbilden. Ein wichtiger Grund sich über eine Migration von pfSense zu OPNsense Gedanken zu machen war für mich unter anderem auch das die Entwickler von pfSense das Postfix Mailrelay gegen alle Einwände der Community aus ihrer Firewall verbannt haben. OPNsense jedoch hat Postfix als Relay sehr gut integriert und kann ideal als Mailproxy vor einem Exchange eingesetzt werden. Howtos zu den einzelnen Themen werde ich noch veröffentlichen.
Das Dashboard ist aufgeräumt und kann auf die eigenen Bedürfnisse angepasst werden:

Das Erstellen der Firewallregeln ist Interface bezogen und entspricht nicht der typischen globalen „Input / Output“ Verfahrensweise wie mit iptables unter Linux, aber man gewöhnt sich sehr schnell an das Funktionsprinzip bei OPNsense:

IPsec (hier im im routed Modus mit VTI) und OpenVPN haben gut administrierbare GUIs:

Anschliessend noch die Einrichtung des dynamischen Routings mit FRR und OSPF:

Viele Reporting Möglichkeiten mit Netflow, Squid Proxy als Webfilter, Postfix als Mailrelay und viele weitere Plugins machen die OPNsense zu einem wirklich guten UTM Gateway. Das angeeignete Know How wird in einer größeren Installation bei einem Kunden zum Einsatz kommen. Für Anfragen zur Integration oder Migration stehe ich gerne zur Verfügung.

Exchange 2016 Reverse Proxy mit pfSense 2.4 und HAProxy

Motivation für diesen Beitrag: Veröffentlichung von Exchange 2016 mittels Reverse Proxy und vorhandener pfSense. Es bietet sich HAproxy an, denn es gibt ein recht gut gepflegtes Package dafür. Weiterhin besteht die Möglichkeit neben dem Loadbalancing auch ACLs zu nutzen um z.B. Pfade zu filtern. Oftmals wird es nicht genutzt weil die Verknüpfung der Frontend ACLs nicht so trivial ist. Um euch die Einarbeitung zu ersparen habe ich mal schnell ein paar Screenshots gemacht. Diese sollten bei euch direkt zu einem „Aaaahhh“ Effekt führen. Ich fange jetzt nicht an wie man das Package installiert und die HAproxy Grundeinstellungen macht wie Zertifikate einspielen oder die Stats-Seiten aktivieren etc.
Ich nutze für mein Beispiel mal den Fall von zwei Anwendungen die über eine externe IP per Subdomain zugänglich gemacht werden sollen. Der primäre Service ist natürlich der Exchange, der zweite Dienst wird „shared“ eingerichtet:Wir benötigen ein Frontend auf die externe IP und den Realserver (Exchange) im Backend. Hier meine Definition vom Backend für den Exchange 2016:

Wenn man mehrere Exchange Server im DAG Cluster betreibt, muss man einfach die weiteren Realserver unter Punkt 2 hinzufügen.
Nun gehts an Frontend. Hier der Überblick über die zwei angelegten Frontends:

In der Definition vom Frontend entscheidet sich welche URL wird aufgerufen, welcher Port und welcher Pfad.
Grundlegend wird festgelegt auf welche IP (WAN Address) und Port der Service hören soll:
Nun werden die ACL und ACTION erstellt. Das ist wohl der Grund warum viele Howtos hier mit einer einfachen TCP Weiterleitung vorlieb nehmen. Dabei ist das gar nicht so schwer:
Folgende Annahme: die externe URL ist „exchange.domain.tld“ und der Pfad „/owa“ oder „/mapi“. Also der Aufruf wäre https://exchange.domain.tld/owa.
Wenn nun eine Anfrage am HAproxy ankommt, muss er diese Anfrage in URL und Pfad zerlegen, erkennen und verarbeiten können. Dafür müssen wir als erstes einige Definitionen unter „Access Control lists“ anlegen die wir in den „Actions“ nutzen können. Den Hostnamen legen wir als ACL „hostname_exchange“ mit der Bedingung „Host matches“ und dem Wert „exchange.domain.tld“ an. Anschliessend definieren wir die Pfade mit der ACL „path_exchange“ mit der Bedingung „Path contains“ und den entsprechenden Werten der Pfade wie „/owa, /mapi etc“. Diese kann man bei „Path contains“ durch Leerzeichen getrennt eingeben.
Nun können wir aus diesen zwei Bedingungen eine „Action“ bauen. Beide Bedingungen müssen ja zutreffen. Damit die beiden angelegten Bedingungen auch „UND“ verknüpft werden, muss man sie in der „Action“ bei „Condition acl names“ einfach hintereinander durch Leerzeichen getrennt hinschreiben. Wenn also die Bedingung „hostname_exchange“ und „path_exchange“ zutreffen wird auf das Backend „Exchange_Backend“ weitergeleitet. Jede andere nicht definierte URL oder Pfad wird mit einem Fehler seitens des HAproxys quitiert.
Nun noch das Zertifikat für dieses Frontend angeben:
Jeder andere Service wird wie dieser Exchange als „shared“ Frontend veröffentlicht:

Mikrotik RouterOS: Not-so-full-Mesh mit Transit Fabric , Dual Provider und OSPF Failover

Seit einiger Zeit spiele ich mit RouterOS von Mikrotik. Ein besseres Preis- Leistungsverhältnis findet man selten bei solchen Produkten. Durch die Mikrotik MUM Vorträge kam ich auf die Idee mein berühmtes Multi-Provider-Failover-OSPF Setup mit Mikrotik umzusetzen. Das ist dank der vielen unterstützten Protokolle und Funktionen absolut kein Problem. Mikrotik Router sind halt keine UTMs, sondern wirklich nur Router. Daher kann man deren Einsatz z.B. vor einer Sophos UTM planen. Ein Transfernetz zwischen Mikrotik und Sophos UTM trennt klar die Aufgaben. Jeder macht was er am besten kann: Routing und Tunnel graben übernimmt Mikrotik, das Filtern und Scannen wird durch die UTM erledigt.
Die Testumgebung besteht aus zwei virtuellen MikroTik Routern, die zwei simulierte Internetprovider haben. Diese werden wie immer durch einen dritten Router simuliert. Niemals reine L2 basierende Host-Only Netzwerke zwischen den Routern nutzen! Hinter den Testroutern liegen jeweils die Standortnetzwerke 192.168.30.0/24 und 192.168.40.0/24:
Um nun von 172.22.1.201 zu 172.24.1.201 einen Tunnel „T2“ zu etablieren verwende ich einen einfachen Trick: Ich setze eine Hostroute zu 172.24.1.201 über das Gateway von 172.22.21.201. Somit wird die Verbindung nicht über das im Routing priorisierte Gateway von 172.22.1.201 aufgebaut – was in meinem Fall Tunnel „T3“ entspricht und somit sinnbefreit wäre.

Nun definieren wir von jedem Provider aus einen Mikrotik proprietären EOIP Tunnel. Dieser kann auch mit IPSEC abgesichert werden. Streiche „kann“ und setze „muss“! Hier mal ein Beispiel-Screenshot für den zweiten Tunnnel, der mittels Hostroute zwischen den beiden zweiten Providern aufgebaut wird:

Jetzt die Netzwerke der Tunnel und Standorte noch ins OSPF eintragen. Iim Screenshot ist noch die Loopback zu sehen. Diese Loopback IP bitte immer als RouterID nutzen bei OSPF:

Nun werden die Standorte über alle Tunnel per OSPF gefunden:
Wenn bei den Providern unterschiedliche Bandbreiten genutzt werden, so empfehle ich die Einteilung der einzeln Tunnel in VLANs. Damit kann man das Loadbalancing steuern:

Hier der Link zu der PDF Version des MUM-Vortrags: KLICK