Chrome で Squid/SquidGuard ブラックリストを回避する

Chrome で Squid/SquidGuard ブラックリストを回避する

私は最近、学校のカリキュラム ネットワークにプロキシ サーバーを提供するために、Ubuntu 14 を搭載した Linux ボックスをセットアップして構成しました。

すべて順調に進んで稼働していますが、気になる点が 1 つあります。

誰かを不快にさせないためにウェブサイトのURLは記載しません(これは単なる例です)。

ブロックされたページ

この URL (および他の 10000 以上の URL) は私のブラック リストに存在し、サイトにアクセスしようとすると、予想どおり禁止/アクセス拒否エラーが表示されます。

しかし!

URL を blockedsite.com/blockedpage (先頭の http:// または www. なし) と入力すると、問題なくページが読み込まれます - 非常に悪いです!

もちろん、IE では常に URL の先頭に https プレフィックスが追加されるため、この問題は発生しないようです。この問題は Chrome で発生しており、残念ながら私たちが使用しているものでもあります。

この問題にどのように対処すればよいか、誰かアドバイスをいただけませんか?

敬具 ジェームス

答え1

これらのブラックリストは、文字列と URL の正確な一致を行います。おそらく、ブラックリストに「http://」または「www」が含まれていますが、Google はそれらを追加しません。

証拠:

私はサンプルファイルの1つをダウンロードしましたここ

./blacklists/ads$ more urls
thisisarandomentrythatdoesnotexist.com/foo

他にもいくつかあります。

これらすべての URL の前には「http」や「www.」が付いていません。したがって、答えはまさに次のとおりです。www.ブラックリストから、その前にあるものをすべて削除してください。理由は簡単です。これは、http、https、ftp などの多くのプロトコル、さらには今後発明されるプロトコルにも有効です。

関連情報