特定のしきい値を超えると、haproxyサーバーが新しい接続を拒否(またはタイムアウト)する問題が発生しています。プロキシサーバーはAWSです。c5.大2CPUと4GBのRAMを搭載したEC2。当サイトでは両方の接続タイプに同じ設定が使用されています。WebSocket接続用に1つあり、通常は2K-4K同時接続とリクエストレートは約10/秒もう1つは、バックエンドとしてnginxを使用した通常のWebトラフィック用で、400-500同時接続とリクエストレートは約100~150/秒両方のCPU使用率は一般的に約3~5%haproxyプロセスでは、2~3%Websocketプロキシに使用されるメモリ(40〜60MB)と1~3%Web プロキシに使用されるメモリ (30 ~ 40 MB)。
添付の設定によると、CPUは両方のCPUにマッピングされ、1つのプロセスと2つのスレッドが実行されます。両方のタイプのトラフィックは通常、95%(またはそれ以上)のSSLトラフィックです。私はプロキシ情報を使用して監視しました。watch -n 1 'echo "情報を表示" | socat unix:/run/haproxy/admin.sock -'自分の限界に達していないか確認するためですが、どうやらそうではないようです。
トラフィックが多い時間帯に問題が起こり始めるのは、WebSocketの同時接続数が約5Kウェブリクエストレートは最大400 リクエスト/秒ここで両方のサーバーについて言及したのは、構成が高同時接続とリクエストレートを処理できることはわかっているが、他のリソース制限に達していないためです。通常の状況ではすべて正常に動作しますが、私たちが目にする問題はエラー_接続タイムアウト(Chrome から) タイプのエラー。502 エラーは表示されません。また、サーバー上で他のプロセスが CPU やメモリを多く使用していることも表示されません。制限の設定や sysctl 設定など、関連する可能性のあるその他の構成も添付します。
私が見逃しているかもしれないアイデアはありますか?私は読んでいる上そして追伸 | grep haproxy間違っており、CPU/メモリ使用量が間違って表示されていますか? TCP 接続制限が不足していますか? バックエンド サーバー (nginx/websocket) は動作していますが、負荷がかかっているようには見えません。これらをより多くの接続とトラフィックで負荷テストしたところ、バックエンド サーバーを制限するずっと前からプロキシによって制限されていました。
どうもありがとう。
ハプロキシ.cfg:
global
ulimit-n 300057
quiet
maxconn 150000
maxconnrate 1000
nbproc 1
nbthread 2
cpu-map auto:1/1-2 0-1
daemon
stats socket /run/haproxy/admin.sock mode 600 level admin
stats timeout 2m
log 127.0.0.1:514 local0
ca-base /etc/ssl/certs
crt-base /etc/ssl/private
ssl-default-bind-options no-sslv3 no-tlsv10
ssl-default-bind-ciphers kEECDH+aRSA+AES:kRSA+AES:+AES256:RC4-SHA:!kEDH:!LOW:!EXP:!MD5:!aNULL:!eNULL:!RC4
defaults
maxconn 150000
mode http
log global
option forwardfor
timeout client 30s
timeout server 120s
timeout connect 10s
timeout queue 60s
timeout http-request 20s
frontend default_proxy
option httplog
bind :80
bind :443 ssl crt /etc/haproxy/ssl.pem
... acl stuff which may route to a different backend
... acl for websocket traffic
use_backend websocket if websocket_acl
default_backend default_web
backend default_web
log global
option httpclose
option http-server-close
option checkcache
balance roundrobin
option httpchk HEAD /index.php HTTP/1.1\r\nHost:website.com
server web1 192.168.1.2:80 check inter 6000 weight 1
server web2 192.168.1.3:80 check inter 6000 weight 1
backend websocket
# no option checkcache
option httpclose
option http-server-close
balance roundrobin
server websocket-1 192.168.1.4:80 check inter 6000 weight 1
server websocket-2 192.168.1.5:80 check inter 6000 weight 1
出力からハプロキシ -vv:
HA-Proxy version 1.8.23-1ppa1~xenial 2019/11/26
Copyright 2000-2019 Willy Tarreau <[email protected]>
Build options :
TARGET = linux2628
CPU = generic
CC = gcc
CFLAGS = -O2 -g -O2 -fPIE -fstack-protector-strong -Wformat - Werror=format-security -Wdate-time -D_FORTIFY_SOURCE=2 -fno-strict-aliasing -Wdeclaration-after-statement -fwrapv -Wno-unused-label
OPTIONS = USE_GETADDRINFO=1 USE_ZLIB=1 USE_REGPARM=1 USE_OPENSSL=1 USE_LUA=1 USE_SYSTEMD=1 USE_PCRE2=1 USE_PCRE2_JIT=1 USE_NS=1
Default settings :
maxconn = 2000, bufsize = 16384, maxrewrite = 1024, maxpollevents = 200
Built with OpenSSL version : OpenSSL 1.0.2g 1 Mar 2016
Running on OpenSSL version : OpenSSL 1.0.2g 1 Mar 2016
OpenSSL library supports TLS extensions : yes
OpenSSL library supports SNI : yes
OpenSSL library supports : TLSv1.0 TLSv1.1 TLSv1.2
Built with Lua version : Lua 5.3.1
Built with transparent proxy support using: IP_TRANSPARENT IPV6_TRANSPARENT IP_FREEBIND
Encrypted password support via crypt(3): yes
Built with multi-threading support.
Built with PCRE2 version : 10.21 2016-01-12
PCRE2 library supports JIT : yes
Built with zlib version : 1.2.8
Running on zlib version : 1.2.8
Compression algorithms supported : identity("identity"), deflate("deflate"), raw-deflate("deflate"), gzip("gzip")
Built with network namespace support.
Available polling systems :
epoll : pref=300, test result OK
poll : pref=200, test result OK
select : pref=150, test result OK
Total: 3 (3 usable), will use epoll.
Available filters :
[SPOE] spoe
[COMP] compression
[TRACE] trace
制限.conf:
* soft nofile 120000
* soft nproc 120000
sysctl.conf:
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_syncookies=1
net.ipv4.conf.all.rp_filter = 1
net.ipv4.ip_local_port_range = 1024 65023
net.ipv4.tcp_max_syn_backlog = 50000
net.ipv4.tcp_max_tw_buckets = 400000
net.ipv4.tcp_max_orphans = 60000
net.ipv4.tcp_synack_retries = 3
net.core.somaxconn = 50000
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1
net.core.netdev_max_backlog = 50000
fs.epoll.max_user_instances = 10000
330 の同時接続と 80 リクエスト/秒の負荷での典型的な例追伸 | grep haproxy出力:
root 8122 4.5 1.2 159052 46200 ? Ssl Jan28 40:56 /usr/sbin/haproxy -Ws -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -sf 29790
root 12893 0.0 0.3 49720 12832 ? Ss Jan21 0:00 /usr/sbin/haproxy -Ws -f /etc/haproxy/haproxy.cfg -p /run/haproxy.pid -sf 29790
OSはUbuntu 16.04です。
答え1
結局、答えはずっと私の目の前にあったのです。最大接続率1,000まで。しかし、情報を表示接続率は 10 ~ 15 と低く表示されていたため、その制限に達しているとは思っていませんでした。最大 500 リクエスト/秒しか維持できず (バックエンド サーバーで確認済み)、リクエストごとにクライアントへの接続が 1 回、バックエンドへの接続が 1 秒必要でした。つまり、1 秒あたり 1,000 接続を使用していました。
この制限を削除し、より高い接続速度を維持できるようになりました。