2015-10-29 3 views
2

Текущая настройка нашего бэкэнд использует Route53 для маршрутизации запросов на серверы tomcat, которые запускаются в экземплярах ec2.Плохая производительность при использовании nginx в качестве прокси

Я пытаюсь настроить nginx как балансировщик нагрузки (прокси) для маршрутизации запросов на наши серверы tomcat.

Вот типы экземпляра,

  1. Tomcat тип экземпляра сервера = m3.2xlarge
  2. Nginx тип экземпляра сервера = c3.large

При запуске AB (Apache эталоном) с 100 одновременными соединениями, не поддерживая их, я вижу, что производительность одного экземпляра tomcat лучше, чем 2 сервера tomcat перед сервером nginx. Теперь я задаюсь вопросом, что-то не так с моей конфигурацией nginx. Я проверил файл error.log на экземпляре nginx и ошибок не было. Кроме того, процессор на экземпляре nginx не пересекает 30% при запуске инструмента сравнения. Вот моя конфигурация nginx,

user nginx; 
pid /run/nginx.pid; 
worker_processes auto; 

worker_rlimit_nofile 32768; 

events { 
    worker_connections 8192; 
    multi_accept on; 
    use epoll; 
} 

http { 

    sendfile on; 
    tcp_nopush on; 
    tcp_nodelay on; 
    keepalive_timeout 65; 
    types_hash_max_size 2048; 

    include /etc/nginx/mime.types; 
    default_type application/octet-stream; 


    ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # Dropping SSLv3, ref: POODLE 
    ssl_prefer_server_ciphers on; 

    upstream backend { 
     server x.x.x.x:443; 
     server x.x.x.x:443; 
     keepalive 1024; 
    } 

    server { 
      listen 443; 
      server_name localhost; 
      ssl on; 
      ssl_certificate /etc/nginx/certs/ssl-bundle_2015_2018.crt; 
      ssl_certificate_key /etc/nginx/certs/chewie.key; 
      ssl_dhparam /etc/nginx/certs/dhparam.pem; 
      ssl_protocols TLSv1 TLSv1.1 TLSv1.2; 
      ssl_session_cache shared:SSL:10m; 
      ssl_prefer_server_ciphers on; 
      ssl_session_timeout 10m; 
      ssl_ciphers "EECDH+ECDSA+AESGCM EECDH+aRSA+AESGCM EECDH+ECDSA+SHA384 EECDH+ECDSA+SHA256 EECDH+aRSA+SHA384 EECDH+aRSA+SHA256 EECDH+aRSA+RC4 EECDH EDH+aRSA RC4 !aNULL !eNULL !LOW !3DES !MD5 !EXP !PSK !SRP !DSS !RC4"; 

      location/{ 
        proxy_pass https://backend; 
        proxy_cache_bypass true; 
        proxy_no_cache true; 
        proxy_set_header  X-Real-IP  $remote_addr; 
        proxy_set_header  X-Forwarded-For $proxy_add_x_forwarded_for; 
    } 
    } 


    access_log /var/log/nginx/access.log; 
    error_log /var/log/nginx/error.log; 


    gzip on; 
    gzip_disable "msie6"; 

    gzip_vary on; 
    gzip_proxied any; 
    gzip_comp_level 6; 
    gzip_buffers 16 8k; 
    gzip_http_version 1.1; 
    gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript; 

    include /etc/nginx/conf.d/*.conf; 
    include /etc/nginx/sites-enabled/*; 
} 

Вот результаты теста apache без nginx.

Concurrency Level:  100 
Time taken for tests: 8.393 seconds 
Complete requests:  800 
Failed requests:  0 
Total transferred:  368000 bytes 
HTML transferred:  16800 bytes 
Requests per second: 95.32 [#/sec] (mean) 
Time per request:  1049.083 [ms] (mean) 
Time per request:  10.491 [ms] (mean, across all concurrent requests) 
Transfer rate:   42.82 [Kbytes/sec] received 

Эти результаты с Nginx перед 2 TOMCAT серверов:

Concurrency Level:  100 
Time taken for tests: 23.494 seconds 
Complete requests:  800 
Failed requests:  0 
Total transferred:  381600 bytes 
HTML transferred:  16800 bytes 
Requests per second: 34.05 [#/sec] (mean) 
Time per request:  2936.768 [ms] (mean) 
Time per request:  29.368 [ms] (mean, across all concurrent requests) 
Transfer rate:   15.86 [Kbytes/sec] received 

Любые мысли о том, где я должен искать для оптимизации оценены!

+0

Одна из вещей, которые я рассматриваю, - это обновление типа экземпляра nginx с c3.large до m3.2xlarge, поскольку производительность сети c3.large не так хороша, как m3.2xlarge. – plspl

+0

вы можете использовать HTTP 1.1 keep-alive между приложением и балансировщиком нагрузки, см. [Docs] (http://nginx.org/en/docs/http/ngx_http_upstream_module.html#keepalive). Еще один, это не вопрос, просто комментарий: вы пробовали SSL-разгрузку? Вам нужна связь между сервером приложений и балансировщиком нагрузки Nginx через HTTPS? – Anatoly

+0

Я включил keepalive между балансировщиком нагрузки и моими серверами. Это не имело значения. Вероятно, это связано с тем, что сам сервер приложений не поддерживает поддержку. Попробуй ssl разгрузить и сообщите о результатах. – plspl

ответ

0

Вот некоторые вещи сделать, чтобы улучшить производительность,

  • Преобразование трафика между Nginx и вышестоящим сервером по протоколу HTTP форму HTTPS
  • Используйте правильные шифры SSL для вашего Nginx. Обязательно запустите тест ssl, чтобы убедиться, что шифры используются в безопасности (www.ssllabs.com)
  • Увеличьте пределы дескриптора файла для сервера nginx, а также tomcat экземпляров на большое количество.

Будет продолжать обновляться, поскольку я нахожу больше вещей.

Смежные вопросы