![Umgehen der Squid/SquidGuard-Blacklist in Chrome](https://rvso.com/image/977090/Umgehen%20der%20Squid%2FSquidGuard-Blacklist%20in%20Chrome.png)
Ich habe vor Kurzem damit begonnen, eine Linux-Box mit Ubuntu 14 einzurichten und zu konfigurieren, um einen Proxyserver für ein Schullehrplannetzwerk bereitzustellen.
Alles ist gut gelaufen und läuft einwandfrei, allerdings ist mir etwas aufgefallen, was mir Sorgen bereitet.
Ich werde die Website-URL nicht auflisten, um niemanden zu beleidigen (das ist nur ein Beispiel), also werde ich sie als
www.blockedsite.com/blockedpage
Diese URL (und Tausende andere) stehen auf meiner schwarzen Liste und beim Versuch, die Site aufzurufen, wird wie erwartet die Fehlermeldung „Verboten/Zugriff verweigert“ angezeigt.
Jedoch!
wenn ich die URL einfach als blockedsite.com/blockedpage eingebe (ohne das führende http:// oder www.), wird die Seite ohne Nachfrage geladen – sehr schlecht!
Natürlich scheint dies im Internet Explorer nicht zu passieren, da dieser immer das Präfix https an den Anfang der URL anfügt. Dieses Problem tritt in Chrome auf … und leider verwenden wir es auch.
Kann jemand einen Rat geben, wie man dieses Problem lösen kann?
Mit freundlichen Grüßen James
Antwort1
Diese Blacklists führen einen exakten Abgleich Ihrer Zeichenfolge mit der URL durch. Sie haben wahrscheinlich „http://“ oder „www“ in Ihrer Blacklist und Google fügt diese nicht hinzu.
Nachweisen:
Ich habe eine der Beispieldateien heruntergeladen vonHier
./blacklists/ads$ more urls
thisisarandomentrythatdoesnotexist.com/foo
und es gibt noch mehrere mehr.
NICHT ALLE haben "http" oder "www." vor der URL, daher lautet die Antwort tatsächlich: Entfernen Sie alles, was davor www.
steht, aus Ihrer Blacklist. Einfacher Grund: Dies funktioniert für http, https, ftp und viele weitere Protokolle und sogar für Protokolle, die noch erfunden werden müssen.