
Meu entendimento sobre o buffer de proxy desativado do Nginx é que o servidor do aplicativo esperará a resposta do cliente em vez do Nginx, então devo ver muitas conexões abertas, mas não é o caso em meus testes.
Configurar:
client (10.2.0.7) <===> Nginx (10.2.0.5) <===> PythonApp (10.2.0.4, port 8000)
500 conexões lentas iniciadas pelo cliente
slowhttptest -c 500 -H -g -o my_header_stats -i 10 -r 50 -t GET -u http://pythonapp.com -x 24 -p 3
Conferência Nginx:
user www-data;
worker_processes auto;
pid /run/nginx.pid;
include /etc/nginx/modules-enabled/*.conf;
events
{
worker_connections 768;
# multi_accept on;
}
http
{
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
include /etc/nginx/mime.types;
default_type application/octet-stream;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; # Dropping SSLv3, ref: POODLE
ssl_prefer_server_ciphers on;
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
# gzip on;
upstream pythonapp
{
server 10.2.0.4:8000;
}
proxy_buffering off;
server
{
listen 80;
proxy_buffering off;
server_name pythonapp.com;
location /
{
proxy_buffering off;
proxy_pass http://pythonapp;
}
}
# include /etc/nginx/conf.d/*.conf;
# include /etc/nginx/sites-enabled/*;
}
Só consigo ver 1 conexão aberta do Nginx
Se eu iniciar conexões lentas diretamente do cliente para o servidor PythonApp, posso ver muitas conexões abertas Configuração:
client (10.2.0.7) <===> PythonApp (10.2.0.4, port 8000)
500 conexões lentas iniciadas pelo cliente
slowhttptest -c 500 -H -g -o my_header_stats -i 10 -r 50 -t GET -u http://10.2.0.4:8000 -x 24 -p 3
Minhas perguntas são
- Por que meu servidor de aplicativos não tem muitas conexões abertas após o proxy reverso do Nginx?
- Se minha configuração estiver incorreta, você pode fornecer código explícito e exemplo de configuração para configurar o ambiente correspondente, de modo a mostrar a diferença de desempenho ou taxa de transferência entre o buffer remoto habilitado e o buffer remoto desabilitado?
Responder1
Finalmente, descobri como testar a diferença de taxa de transferência do buffer de proxy ativado/desativado. Acho que slowtest
não é uma boa ferramenta para testá-lo. eu useitrabalhar
Minha nova configuração:
Slow client (10.2.0.7) \
\
Nginx (10.2.0.5) <===> PythonApp (10.2.0.4, port 8000)
/
/
Fast client (10.2.0.6)
Você pode fazer referência a issoGuia digital do oceanopara configurar o aplicativo Flask Aplicativo Python:
from flask import Flask
app = Flask(__name__)
@app.route("/")
def hello():
return "<h1 style='color:blue'>Hello There!</h1>"
@app.route("/big-file")
def big_file():
return "<h1 style='color:blue'>" + "Hello There!"*1000000 + "</h1>"
if __name__ == "__main__":
app.run(host='0.0.0.0')
Cliente lento:
# modprobe ifb
# ip link set dev ifb0 up
# tc qdisc add dev eth0 ingress
# tc filter add dev eth0 parent ffff: \
protocol ip u32 match u32 0 0 flowid 1:1 action mirred egress redirect dev ifb0
# tc qdisc add dev ifb0 root netem delay 750ms
Execute o teste wrk no cliente rápido e lento:
Cliente lento:
# wrk -t4 -c10 -d30 http://pythonapp.com/big-file
Cliente rápido:
# wrk -t2 -c100 -d10 http://pythonapp.com
É obrigatório que o cliente lento acesse o caminho /big-file, o que retornará uma resposta bastante grande. Se a resposta for menor queproxy_buffer_size, a conexão entre o Nginx e o servidor proxy será encerrada muito rapidamente e você não poderá simular o bloqueio.
Conexões ocupadas por clientes lentos sem proxy_buffering no Nginx e taxa de transferência de clientes rápidos:
Taxa de transferência de clientes rápidos quando não há buffer de proxy
Se houver proxy_buffering, você não verá conexões ocupadas por clientes lentos. Você pode executar os comandos para clientes lentos para baixar primeiro a resposta lenta e, em seguida, verificar as conexões no Nginx.
Taxa de transferência de clientes rápidos quando há buffer de proxy