nginx配置详解及设置代理服务器(1)
nginx配置详解及设置代理服务器(1)
nginx配置详解及设置代理服务器
1. nginx简单介绍
Nginx是⼀款⾃由的、开源的、⾼性能的HTTP服务器和反向代理服务器;同时也是⼀个IMAP、POP3、SMTP代理服务器;Nginx可以作为⼀个HTTP服务器进⾏⽹站的发布处理,另外Nginx可以作为反向代理进⾏负载均衡的实现。通常我们主要使⽤nginx作为服务代理和负载均衡。本⽂主要介绍如何使⽤nginx作为服务代理的。
2. nginx安装
版本介绍
下载后进⾏解压(Windows版本和Linux版本的⽬录结构都是⼀样的)
通过双击或通过cmd命令⾏都可以启动nginx服务。
3. nginx 配置⽂件详解
Nginx服务代理和负载均衡都可以通过修改f⽂件进⾏配置
3.f⽂件配置属性详解
通过记事本或者其他软件打开时的内容如下所⽰(#号表⽰注释):
为了⽅便阅读,我直接在代码旁对各个属性进⾏解释
#定义Nginx运⾏的⽤户和⽤户组
user www www;
#nginx进程数,建议设置为等于CPU总核⼼数。
worker_processes 8;
#全局错误⽇志定义类型,[ debug | info | notice | warn | error | crit ]
error_log /usr/local/nginx/logs/error.log info;
#进程pid⽂件
pid /usr/local/nginx/logs/nginx.pid;
#指定进程可以打开的最⼤描述符:数⽬
#⼯作模式与连接数上限
#这个指令是指当⼀个nginx进程打开的最多⽂件描述符数⽬,理论值应该是最多打开⽂件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持⼀致。
#现在在linux 2.6内核下开启⽂件打开数为65535,worker_rlimit_nofile就相应应该填写65535。
#这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。worker_rlimit_nofile 65535;
events
{
#参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型
#是Linux 2.6以上版本内核中的⾼性能⽹络I/O模型,linux建议epoll,如果跑在FreeBSD上⾯,就⽤kqueue模型。
#补充说明:
#与apache相类,nginx针对不同的操作系统,有不同的事件模型
#A)标准事件模型
#Select、poll属于标准事件模型,如果当前系统不存在更有效的⽅法,nginx会选择select或poll
#B)⾼效事件模型
#Kqueue:使⽤于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使⽤双处理器的MacOS X系统使⽤kqueue可能会造成内核崩溃。
#Epoll:使⽤于Linux内核2.6版本及以后的系统。
#/dev/poll:使⽤于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
#Eventport:使⽤于Solaris 10。为了防⽌出现内核崩溃的问题,有必要安装安全补丁。
use epoll;
#单个进程最⼤连接数(最⼤连接数=连接数*进程数)
#根据硬件调整,和前⾯⼯作进程配合起来⽤,尽量⼤,但是别把cpu跑到100%就⾏。每个进程允许的最多连接数,理论上每台nginx服务器的最⼤连接数为。
worker_connections 65535;
#keepalive超时时间。
keepalive_timeout 60;
#客户端请求头部的缓冲区⼤⼩。这个可以根据你的系统分页⼤⼩来设置,⼀般⼀个请求头的⼤⼩不会
超过1k,不过由于⼀般系统分页都要⼤于1k,所以这⾥设置为分页⼤⼩。
#分页⼤⼩可以⽤命令getconf PAGESIZE 取得。
#[root@web001 ~]# getconf PAGESIZE
#4096
#但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页⼤⼩”的整倍数。
client_header_buffer_size 4k;
#这个将为打开⽂件指定缓存,默认是没有启⽤的,max指定缓存数量,建议和打开⽂件数⼀致,inactive是指经过多长时间⽂件没被请求后删除缓存。
#这个将为打开⽂件指定缓存,默认是没有启⽤的,max指定缓存数量,建议和打开⽂件数⼀致,inactive是指经过多长时间⽂件没被请求后删除缓存。
open_file_cache max=65535 inactive=60s;
#这个是指多长时间检查⼀次缓存的有效信息。
#语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使⽤字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项⽬的有效信息.
open_file_cache_valid 80s;
#open_file_cache指令中的inactive参数时间内⽂件的最少使⽤次数,如果超过这个数字,⽂件描述符⼀直是在缓存中打开的,如上例,如果有⼀个⽂件在ina ctive时间内⼀次没被使⽤,它将被移除。
#语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使⽤字段:http, server, location  这个指令指定了在open_file_cache指令⽆效的参数中⼀定的时间范围内可以使⽤的最⼩⽂件数,如果使⽤更⼤的值,⽂件描述符在cache中总是打开状态.
open_file_cache_min_uses 1;
#语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使⽤字段:http, server, location 这个指令指定是否在搜索⼀个⽂件是记录cache错误.
open_file_cache_errors on;
}
#设定http服务器,利⽤它的反向代理功能提供负载均衡⽀持
http
{
#⽂件扩展名与⽂件类型映射表
pes;
#默认⽂件类型
default_type application/octet-stream;
#默认编码
#charset utf-8;
#服务器名字的hash表⼤⼩
#保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的⼤⼩,并且是⼀路处理器缓存⼤⼩的倍数。在减少了在内存中的存取次数后,使在处理器中加速查hash表键值成为可能。如果hash bucket size等于⼀路处理器缓存的⼤⼩,那么在查键的时候,最坏的情况下在内存中查的次数为2。第⼀次是确定存储单元的地址,第⼆次是在存储单元中查键值。因此,如果Nginx给出需要增⼤hash max size 或 hash bucket size的提⽰,那么⾸要的是增⼤前⼀个参数的⼤⼩.
server_names_hash_bucket_size 128;
#客户端请求头部的缓冲区⼤⼩。这个可以根据你的系统分页⼤⼩来设置,⼀般⼀个请求的头部⼤⼩不会超过1k,不过由于⼀般系统分页都要⼤于1k,所以这⾥设置为分页⼤⼩。分页⼤⼩可以⽤命令getconf PAGESIZE取得。
client_header_buffer_size 32k;
#客户请求头缓冲⼤⼩。nginx默认会⽤client_header_buffer_size这个buffer来读取header值,如果header过⼤,它会使⽤large_client_header_buffers来读取。
large_client_header_buffers 4 64k;
#设定通过nginx上传⽂件的⼤⼩
client_max_body_size 8m;
#开启⾼效⽂件传输模式,sendfile指令指定nginx是否调⽤sendfile函数来输出⽂件,对于普通应⽤设为 on,如果⽤来进⾏下载等应⽤磁盘IO重负载应⽤,可设置为off,以平衡磁盘与⽹络I/O处理速度,降低系统的负载。注意:如果图⽚显⽰不正常把这个改成off。
#sendfile指令指定 nginx 是否调⽤sendfile 函数(zero copy ⽅式)来输出⽂件,对于普通应⽤,必须设为on。如果⽤来进⾏下载等应⽤磁盘IO重负载应⽤,可设置为off,以平衡磁盘与⽹络IO处理速度,降低系统uptime。
sendfile on;
#开启⽬录列表访问,合适下载服务器,默认关闭。
autoindex on;
#此选项允许或禁⽌使⽤socke的TCP_CORK的选项,此选项仅在使⽤sendfile的时候使⽤
tcp_nopush on;
tcp_nodelay on;
#长连接超时时间,单位是秒
keepalive_timeout 120;
#FastCGI相关参数是为了改善⽹站的性能:减少资源占⽤,提⾼访问速度。下⾯参数看字⾯意思都能理解。
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
#gzip模块设置
gzip on; #开启gzip压缩输出
gzip_min_length 1k;    #最⼩压缩⽂件⼤⼩
gzip_min_length 1k;    #最⼩压缩⽂件⼤⼩
gzip_buffers 4 16k;    #压缩缓冲区
gzip_http_version 1.0;    #压缩版本(默认1.1,前端如果是squid2.5请使⽤1.0)
gzip_comp_level 2;    #压缩等级
gzip_types text/plain application/x-javascript text/css application/xml;    #压缩类型,默认就已经包含textml,所以下⾯就不⽤再写了,写上去也不会有问题,但是会有⼀个warn。
gzip_vary on;
#开启限制IP连接数的时候需要使⽤
#limit_zone crawler $binary_remote_addr 10m;
#负载均衡配置
upstream piao.jd {
#upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表⽰权值,权值越⾼被分配到的⼏率越⼤。
server 192.168.80.121:80 weight=3;
server 192.168.80.122:80 weight=2;
server 192.168.80.123:80 weight=3;
#nginx的upstream⽬前⽀持4种⽅式的分配
#1、轮询(默认)
#每个请求按时间顺序逐⼀分配到不同的后端服务器,如果后端服务器down掉,能⾃动剔除。
#2、weight
#指定轮询⼏率,weight和访问⽐率成正⽐,⽤于后端服务器性能不均的情况。
#例如:
#upstream bakend {
#    server 192.168.0.14 weight=10;
#    server 192.168.0.15 weight=10;
#}
#2、ip_hash
#每个请求按访问ip的hash结果分配,这样每个访客固定访问⼀个后端服务器,可以解决session的问题。
#例如:
#upstream bakend {
#    ip_hash;
#    server 192.168.0.14:88;
#    server 192.168.0.15:80;
#}
#3、fair(第三⽅)
#按后端服务器的响应时间来分配请求,响应时间短的优先分配。
#upstream backend {
#    server server1;
#    server server2;
#    fair;
#}
#4、url_hash(第三⽅)
#按访问url的hash结果来分配请求,使每个url定向到同⼀个后端服务器,后端服务器为缓存时⽐较有效。
#例:在upstream中加⼊hash语句,server语句中不能写⼊weight等其他的参数,hash_method是使⽤的hash算法
#upstream backend {
#    server squid1:3128;
#    server squid2:3128;
#    hash $request_uri;
#    hash_method crc32;
#}
如何设置代理服务器#tips:
#upstream bakend{#定义负载均衡设备的Ip及设备状态}{
#    ip_hash;
#    server 127.0.0.1:9090 down;
#    server 127.0.0.1:8080 weight=2;
#    server 127.0.0.1:6060;
#    server 127.0.0.1:7070 backup;
#}
#在需要使⽤负载均衡的server中增加 proxy_pass bakend/;
#每个设备的状态设置为:
#1.down表⽰单前的server暂时不参与负载
#2.weight为weight越⼤,负载的权重就越⼤。
#3.max_fails:允许请求失败的次数默认为1.当超过最⼤次数时,返回proxy_next_upstream模块定义的错误
#4.fail_timeout:max_fails次失败后,暂停的时间。
#5.backup:其它所有的⾮backup机器down或者忙的时候,请求backup机器。所以这台机器压⼒会最轻。
#nginx⽀持同时设置多组的负载均衡,⽤来给不⽤的server来使⽤。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。