nginx一篇文章就够了,下载到使用正反向代理、命令配置超全

前言

一、nginx简介

1. 什么是 nginx 和可以做什么事情

Nginx 是高性能的 HTTP 和反向代理的web服务器,处理高并发能力是十分强大的,能经受高负 载的考验,有报告表明能支持高达 50,000 个并发连接数。

其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

2.Nginx 作为 web 服务器

Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php 等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发, 性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高 达 50,000 个并发连接数。

https://lnmp.org/nginx.html

3. 正向代理

代理一般分为正向代理和反向代理。

正向代理是一个位于客户端和原始服务器之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。

反向代理实际运行方式是代理服务器接受网络上的连接请求。它将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给网络上请求连接的客户端,此时代理服务器对外就表现为一个服务器。

可以这么认为,对于正向代理,代理服务器和客户端处于同一个局域网内;而反向代理,代理服务器和源站则处于同一个局域网内。

配置正向代理

Nginx的配置文件为/usr/local/nginx/conf/nginx.conf。一般我们不直接在该文件里配置我们的代理,转而使用include的方式,把我们的配置独立成另一个配置文件。

...http {...keepalive_timeout65;include yumproxy.conf;//添加自己的配置文件}12345678

这样我们就可以在yumproxy.conf文件里配置我们的代理了。

正向代理的配置很简单,其实两个语句就行了。

server {resolver 192.168.0.1;location / {proxy_pass ;}}123456

其中,

resolver表示DNS服务器

location表示匹配用户访问的资源,并作进一步转交和处理,可用正则表达式匹配

proxy_pass表示需要代理的地址

$http_host 表示用户访问资源的主机部分

$request_uri 表示用户访问资源的URI部分。

如,,则$http_host=nginx.org,$request_uri=/download/nginx-1.6.3.tar.gz。

可以不设置监听端口号,nginx默认监听80端口,除非你要修改监听端口,可以用listen字段指定。

可以看出,对于正向代理,只是对用户的访问进行一个转发,不做其他处理。

下面我们实际验证一下这个正向代理是否有效,找了两台虚拟机,一台用nginx搭建正向代理,另一台使用该代理访问,以百度为例。

先确认nginx服务启动,用netstat命令查看监听端口,

接下来使用curl命令设置代理访问百度首页。

4. 反向代理

对于反向代理也很简单,如下,

server {server_name www.baidu.com;location / {proxy_pass ;}}123456

其中,server_name字段用于匹配用户访问资源的主机名称。proxy_pass字段同样表示转交的访问。

与正向代理不同,反向代理是指定了特定的网址。其实也就是限定了访问的对象。指定用户访问www.baidu.com时,只能去百度。如果你把proxy_pass的网址替换为新浪的,那就会出现用户明明要访问百度,却跑到新浪去了。这就是代理劫持了。另外,server_name可以匹配多个主机名,用空格分开即可,也可以用正则表达式匹配主机名。

但是特别要注意一点,对于没有匹配到的访问,nginx会默认走第一条server配置,所以一般我们将第一条server设置为阻止页面。

我们可以实际验证一下。先按上述配置反向代理,访问百度,正常返回,注意百度的ETAG,

然后我们再访问新浪,

可以看出,此时虽然我们想访问的是新浪,但是实际返回的还是百度。下面我们在上面反向代理的基础上添加一个空的server配置,只返回404错误。

此时,结果和我们预期的一致了,未匹配的全都走第一条server,返回404,也就控制了哪些网站能访问,哪些不能访问,但是这明显不是nginx该考虑的。因为nginx的优势不在于控制访问,相比之下,squid的ACL才是更明智的选择

5. 负载均衡

增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的 情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负 载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

并发请求相对较少的情况下是比较适合的,成 本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。那么怎么办呢?上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均衡

6.动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。

二、Nginx 的安装(Linux:centos为例)

nginx安装时,用到的包,我都准备好啦,方便使用:

本来想放百度云的,但是麻烦,所以我就直接上传到我的资源啦,大家也可以直接联系我,我直接给大家的。

1. 准备工作

打开虚拟机,使用finallshell链接Linux操作系统

到nginx下载软件

二、Nginx 的安装(Linux)

三、 Nginx 的常用命令和配置文件

1. Nginx常用命令

a. 使用nginx操作命令前提

https://www.toutiao.com/i6860256825091031555/

a. 使用nginx操作命令前提

使用nginx操作命令前提:必须进入到nginx的自动生成目录的下/sbin文件夹下。

nginx有两个目录:

第一个:安装目录,我放在:

/usr/feng/

1

第二个:自动生成目录:

/usr/local/nginx/

1

b. 查看 nginx 的版本号

./nginx -v

1

c. 启动 nginx

./nginx

1

d. 关闭nginx

./nginx -s stop

1

e. 重新加载 nginx

该目录:/usr/local/nginx/sbin 下执行命令,不需要重启服务器,自动编译。

./nginx -s reload

1

2. Nginx配置文件

a. 配置文件位置

/usr/local/nginx/conf/nginx.conf

b. nginx 的组成部分

配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的 内容如下:

worker_processes1;events {worker_connections1024;}http {include mime.types;default_typeapplication/octet-stream;sendfileon;keepalive_timeout65;server {listen 80;server_namelocalhost;location / {root html;indexindex.html index.htm;}error_page 500 502 503 504/50x.html;location = /50x.html {root html;}}}1234567891011121314151617181920212223242526

nginx 配置文件有三部分组成

第一部分:全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响nginx 服务器整体运行的配置指令,主要包括配 试运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。

比如上面第一行配置的:

worker_processes 1;

1

这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约。

第二部分:events块

比如上面的配置:

events {worker_connections1024;}123

events 块涉及的指令**主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否 允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。**

上述例子就表示每个 work process 支持的最大连接数为 1024.

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

第三部分:

http {include mime.types;default_typeapplication/octet-stream;sendfileon;keepalive_timeout65;server {listen 80;server_namelocalhost;location / {root html;indexindex.html index.htm;}error_page 500 502 503 504/50x.html;location = /50x.html {root html;}}}1234567891011121314151617181920

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

需要注意的是:http 块也可以包括 http全局块、server 块。

http全局块

http全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

server 块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。

location 块

一个 server 块可以配置多个 location 块。

总结:

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行

来源:

“IT大咖说”欢迎广大技术人员投稿,投稿邮箱:[email protected]

来都来了,走啥走,留个言呗~

 IT大咖说  |  关于版权 

由“IT大咖说(ID:itdakashuo)”原创的文章,转载时请注明作者、出处及。投稿、约稿、转载请加:ITDKS10(备注:投稿),茉莉小姐姐会及时与您联系!

感谢您对IT大咖说的热心支持!

相关推荐

推荐文章

Web-Frameworks - 谁才是最快的 Web 框架

什么是MongoDB?为什么要使用MongoDB?

低代码开发平台-解决SaaS应用的最后一公里

使用ffmpeg生成视频缩略图

必须了解的十个高级SQL概念

深析Pipeline设计模式