DjangoClusterNginx » Cronologia » Versione 4
Mark Caglienzi, 13-12-2013 17:50
Linkata guida per usare supervisor
| 1 | 1 | Mark Caglienzi | h1. Clusterizzare un'applicazione Django con Nginx |
|---|---|---|---|
| 2 | |||
| 3 | Si suppone di avere un'applicazione django da distribuire su più istanze server, e di volere che il carico sia distribuito fra queste istanze e che anche in caso di malfunzionamento di una o più istanze, il servizio non sia negato, finché almeno un server resta funzionante. |
||
| 4 | |||
| 5 | h2. Prerequisiti |
||
| 6 | |||
| 7 | * Applicazione Django nella directory @/home/utente/projects/django/myproject/@ (per semplicità la guida assume che l'applicazione sia servita da @./manage.py runserver $PORTA@) |
||
| 8 | * Nginx |
||
| 9 | |||
| 10 | h2. Avvio delle istanze Django |
||
| 11 | |||
| 12 | Avviare 4 istanze della stessa applicazione in 4 terminali differenti (un comando per terminale): |
||
| 13 | |||
| 14 | <pre> |
||
| 15 | $ ./manage.py runserver 8000 |
||
| 16 | $ ./manage.py runserver 8001 |
||
| 17 | $ ./manage.py runserver 8002 |
||
| 18 | $ ./manage.py runserver 8003 |
||
| 19 | </pre> |
||
| 20 | |||
| 21 | In questo modo si avranno 4 istanze della stessa applicazione, e accedendo con il browser agli indirizzi @127.0.0.1:8000@, @127.0.0.1:8001@, @127.0.0.1:8002@, @127.0.0.1:8003@, si vedrà che ognuna funziona indipendentemente. |
||
| 22 | |||
| 23 | 4 | Mark Caglienzi | Oppure, in alternativa, usare Supervisor, [[SupervisorPerDjango|guida a questo link]]. |
| 24 | |||
| 25 | 1 | Mark Caglienzi | h2. Configurazione base di nginx |
| 26 | |||
| 27 | Si crei il file di configurazione @/etc/nginx/sites-available/cluster@: |
||
| 28 | |||
| 29 | <pre> |
||
| 30 | upstream backend { |
||
| 31 | server 127.0.0.1:8000; |
||
| 32 | server 127.0.0.1:8001; |
||
| 33 | server 127.0.0.1:8002; |
||
| 34 | server 127.0.0.1:8003; |
||
| 35 | } |
||
| 36 | |||
| 37 | server { |
||
| 38 | listen 80; |
||
| 39 | root /home/utente/projects/django/; |
||
| 40 | server_name cluster; |
||
| 41 | access_log /home/utente/projects/django/access.log; |
||
| 42 | error_log /home/utente/projects/django/error.log; |
||
| 43 | location / { |
||
| 44 | proxy_pass http://backend; |
||
| 45 | } |
||
| 46 | } |
||
| 47 | </pre> |
||
| 48 | |||
| 49 | e si attivi con: |
||
| 50 | |||
| 51 | <pre> |
||
| 52 | # ln -s /etc/nginx/sites-available/cluster /etc/nginx/sites-enabled/cluster |
||
| 53 | # /etc/init.d/nginx restart |
||
| 54 | </pre> |
||
| 55 | |||
| 56 | In questo modo si dice a nginx di redirigere tutte le richieste che giungono a @http://cluster/@ verso il cluster chiamato @backend@, che è il gruppo di istanze di django. |
||
| 57 | |||
| 58 | 3 | Mark Caglienzi | Perché l'URL @http://cluster@ funzioni però, bisogna aggiungere una riga al file @/etc/hosts@ (o configurare il DNS in modo appropriato): |
| 59 | 1 | Mark Caglienzi | |
| 60 | <pre> |
||
| 61 | 127.0.0.1 cluster |
||
| 62 | </pre> |
||
| 63 | |||
| 64 | 2 | Mark Caglienzi | h2. Test |
| 65 | 1 | Mark Caglienzi | |
| 66 | A questo punto si può accedere a @http://cluster/@ e vedere come le richieste vengano divise fra i 4 server, e fermandone alcuni e/o riavviandoli, il sito funziona sempre, a patto che ovviamente almeno un'istanza sia attiva. |
||
| 67 | 2 | Mark Caglienzi | |
| 68 | Con questa configurazione di base il carico viene distribuito uniformemente fra i componenti del cluster, ma il modulo @upstream@ di nginx supporta diverse opzioni ("documentazione":http://nginx.org/en/docs/http/ngx_http_upstream_module.html), ad esempio @weight@: |
||
| 69 | <pre> |
||
| 70 | upstream backend { |
||
| 71 | server 127.0.0.1:8000; |
||
| 72 | server 127.0.0.1:8001; |
||
| 73 | server 127.0.0.1:8002 weight=3; |
||
| 74 | server 127.0.0.1:8003; |
||
| 75 | } |
||
| 76 | </pre> |
||
| 77 | |||
| 78 | in questo modo nginx redirigerà sul terzo server statisticamente il triplo delle richieste rispetto agli altri (può essere utile se uno dei server del cluster ha performance hardware maggiori, o se ha più banda a disposizione), oppure @max_fails@ e @fail_timeout@: |
||
| 79 | <pre> |
||
| 80 | upstream backend { |
||
| 81 | server 127.0.0.1:8000; |
||
| 82 | server 127.0.0.1:8001 max_fails=2 fail_timeout=20s; |
||
| 83 | server 127.0.0.1:8002; |
||
| 84 | server 127.0.0.1:8003; |
||
| 85 | } |
||
| 86 | </pre> |
||
| 87 | |||
| 88 | se nginx vedrà negate più di 2 richieste in 20 secondi dal secondo server, lo considererà non disponibile per 20 secondi (i default sono @max_fails=1@ e @fail_timeout=10s@) |
||
| 89 | |||
| 90 | <pre> |
||
| 91 | upstream backend { |
||
| 92 | server 127.0.0.1:8000 backup; |
||
| 93 | server 127.0.0.1:8001; |
||
| 94 | server 127.0.0.1:8002; |
||
| 95 | server 127.0.0.1:8003; |
||
| 96 | } |
||
| 97 | </pre> |
||
| 98 | |||
| 99 | in questo modo il primo server è considerato di backup, e quindi verrà usato solo quando nessun altro server è disponibile. |