„Mein Internet ist kaputt“ – ich denke jeder 1st-Leveler kennt diese Aussagen. Bauchschmerzen bereiten sie spätestens dann, wenn auch man selbst nicht mehr ins Netz kommt. Proxy weg. In solchen Situationen muss schnelle Hilfe her. Mein erster Blick: Da steht noch ne Testkiste – zwar ist Arch Linux nicht unbedingt die erste Wahl für Produktivserver, welche möglichst wartungsarm sein sollen, aber besser als nichts. Bauen wir mal einen Proxy.
1. Squid installieren
Die Platzhirsch unter den Proxys dürfte ohne Frage Squid sein. Die GPL-Software kann sowohl als Caching als auch Reverse Proxy eingesetzt werden. Ich nutze nur die erste Funktion – Zugriffe der Benutzer sollen zwischengespeichert werden. Die Installation ist unter nahezu allen Distributionen mit wenigen Schritten über den Paketmanager möglich. In meinem Fall reicht ein „pacman -S squid“.
2. Zugriffs- und Speicherkonfiguration
Neben der Software wird auch eine Standardkonfiguration installiert, welche unter /etc/squid/squid.conf zu finden ist. Standardmäßig wird den privaten IPv4-Bereichen erlaubt auf die üblichen Ports für HTTP, FTP, Gopher, Wais und HTTPs zu verbinden. Sofern man keine restriktive Webzugriffslinie besitzt können diese Beispiele also übernommen werden. Einige Änderungen und Ergänzungen können allerdings Hilfreich sein:
# Keine Verbindung zu localhost - schuetzt ggf. falsch eingerichtete Webanwendungen auf dem Server http_access deny to_localhost #E-Mail-Adresse des Admins - so kommen die Beschwerden der Nutzer an die richtige Stelle cache_mgr info@ad....fo #Beim Stoppen des Dienstes 10 Sekunden darauf warten laufende Uebertragungen abzuschliessen shutdown_lifetime 10 seconds #Im RAM werden bis zu 4 GB als Cache genutzt cache_mem 4096 MB #Objekte mit mehr als 50MB werden nicht gecached maximum_object_size 50 MB # Bis 95% Fuellstand des Caches werden keine Objekte ersetzt cache_swap_low 95 # Je naeher wir an 98% kommen desto aggressiver werden alte Objekte ersetzt cache_swap_high 98 #Alles ueber 512kb wird nicht im RAM sondern nur auf HDD gespeichert maximum_object_size_in_memory 512 KB # HDD-Cache Typ aufs (async), Ordnerangabe, 32GB, Ordner erste Ebene, Ordner zweite Ebene cache_dir aufs /var/cache/squid 32768 32 256 #Eyecandy visible_hostname proxy.lan.adlerweb.info #Boese Seiten acl bad_url dstdomain "/etc/squid/bad-sites.acl" http_access deny bad_url #Interne IP des Clients nicht nach draussen senden forwarded_for off
In meinem Fall musste auch der Standardport dran glauben, stattdessen wird nun 8080 verwendet, welches dem Altsystem entspricht und lästiges Umkonfigurieren erspart:
http_port 8080
3. Diktator-Modus
In der Konfiguration schimmert es schon etwas durch: I aim to misbehave. Da es sich um mein Netz handelt greifen auch meine Zensurrichtlinien. Unter /etc/squid/bad-sites.acl liegt eine Liste mit Domains, welche vom Proxy gesperrt werden. Dies kann z.B. sinnvoll sein um Werbung oder die Ziele quasselfreudiger Programme auszusperren. Dabei solltet ihr natürlich das alte Credo beherzigen: With great power comes great responsibility.
.facebook.com .facebook.de .google-analytics.com .googleadservices.com [...]
4 Minuten Später
…ist der Proxy installiert und das Internet läuft wieder. Job erledigt, wenden wir uns wieder den Katzenvideos zu.
Und sonst?
Wer es etwas weiter treiben möchte: SquidGuard oder Dansguardian können Webseiten nach Themenbereichen sperren. SquidClamav kann die aufgerufenen Webseiten auf Viren prüfen. Sarg verwandelt das Log in einen praktischen HTML-Report mit Top-Usern und den Beliebtesten Webseiten. Ansonsten hat auch sicher die Suchmaschine der Wahl noch genügend Ideen zur Freizeitvernichtung.