![Chrome で Squid/SquidGuard ブラックリストを回避する](https://rvso.com/image/977090/Chrome%20%E3%81%A7%20Squid%2FSquidGuard%20%E3%83%96%E3%83%A9%E3%83%83%E3%82%AF%E3%83%AA%E3%82%B9%E3%83%88%E3%82%92%E5%9B%9E%E9%81%BF%E3%81%99%E3%82%8B.png)
私は最近、学校のカリキュラム ネットワークにプロキシ サーバーを提供するために、Ubuntu 14 を搭載した Linux ボックスをセットアップして構成しました。
すべて順調に進んで稼働していますが、気になる点が 1 つあります。
誰かを不快にさせないためにウェブサイトのURLは記載しません(これは単なる例です)。
ブロックされたページ
この URL (および他の 10000 以上の URL) は私のブラック リストに存在し、サイトにアクセスしようとすると、予想どおり禁止/アクセス拒否エラーが表示されます。
しかし!
URL を blockedsite.com/blockedpage (先頭の http:// または www. なし) と入力すると、問題なくページが読み込まれます - 非常に悪いです!
もちろん、IE では常に URL の先頭に https プレフィックスが追加されるため、この問題は発生しないようです。この問題は Chrome で発生しており、残念ながら私たちが使用しているものでもあります。
この問題にどのように対処すればよいか、誰かアドバイスをいただけませんか?
敬具 ジェームス
答え1
これらのブラックリストは、文字列と URL の正確な一致を行います。おそらく、ブラックリストに「http://」または「www」が含まれていますが、Google はそれらを追加しません。
証拠:
私はサンプルファイルの1つをダウンロードしましたここ
./blacklists/ads$ more urls
thisisarandomentrythatdoesnotexist.com/foo
他にもいくつかあります。
これらすべての URL の前には「http」や「www.」が付いていません。したがって、答えはまさに次のとおりです。www.
ブラックリストから、その前にあるものをすべて削除してください。理由は簡単です。これは、http、https、ftp などの多くのプロトコル、さらには今後発明されるプロトコルにも有効です。