Redis,Nginx,Netty为什么这么香?

新闻 Linux Redis
Redis,Nginx,Netty,Node.js 为什么这么香?这些技术都是伴随 Linux 内核迭代中提供了高效处理网络请求的系统调用而出现的。

 Redis,Nginx,Netty,Node.js 为什么这么香?这些技术都是伴随 Linux 内核迭代中提供了高效处理网络请求的系统调用而出现的。今天我们从操作系统层面理解 Linux 下的网络 IO 模型!

[[285881]]

图片来自 Pexels

I/O( INPUT/OUTPUT),包括文件 I/O、网络 I/O。计算机世界里的速度鄙视:

  • 内存读数据:纳秒级别。
  • 千兆网卡读数据:微妙级别。1 微秒= 1000 纳秒,网卡比内存慢了千倍。 
  • 磁盘读数据:毫秒级别。1 毫秒=10 万纳秒 ,硬盘比内存慢了 10 万倍。 
  • CPU 一个时钟周期 1 纳秒上下,内存算是比较接近 CPU 的,其他都等不起。

CPU 处理数据的速度远大于 I/O 准备数据的速度 。任何编程语言都会遇到这种 CPU 处理速度和 I/O 速度不匹配的问题!

在网络编程中如何进行网络 I/O 优化?怎么高效地利用 CPU 进行网络数据处理?

相关概念

从操作系统层面怎么理解网络 I/O 呢?计算机的世界有一套自己定义的概念。

如果不明白这些概念,就无法真正明白技术的设计思路和本质。所以在我看来,这些概念是了解技术和计算机世界的基础。

同步与异步,阻塞与非阻塞

理解网络 I/O 避不开的话题:同步与异步,阻塞与非阻塞。

拿山治烧水举例来说,(山治的行为好比用户程序,烧水好比内核提供的系统调用),这两组概念翻译成大白话可以这么理解:

  • 同步/异步关注的是水烧开之后需不需要我来处理。 
  • 阻塞/非阻塞关注的是在水烧开的这段时间是不是干了其他事。

同步阻塞:点火后,傻等,不等到水开坚决不干任何事(阻塞),水开了关火(同步)。

Redis,Nginx,Netty为什么这么香?

同步非阻塞:点火后,去看电视(非阻塞),时不时看水开了没有,水开后关火(同步)。

Redis,Nginx,Netty为什么这么香?

异步阻塞:按下开关后,傻等水开(阻塞),水开后自动断电(异步)。

Redis,Nginx,Netty为什么这么香?

网络编程中不存在的模型。

异步非阻塞:按下开关后,该干嘛干嘛 (非阻塞),水开后自动断电(异步)。

Redis,Nginx,Netty为什么这么香?

内核空间 、用户空间

Redis,Nginx,Netty为什么这么香?

内核空间 、用户空间如上图:

  • 内核负责网络和文件数据的读写。 
  • 用户程序通过系统调用获得网络和文件的数据。

Redis,Nginx,Netty为什么这么香?

内核态、用户态如上图:

程序为读写数据不得不发生系统调用。 

通过系统调用接口,线程从用户态切换到内核态,内核读写数据后,再切换回来。 

进程或线程的不同空间状态。

Redis,Nginx,Netty为什么这么香?

线程的切换如上图,用户态和内核态的切换耗时,费资源(内存、CPU)。

优化建议:

  • 更少的切换。
  • 共享空间。

套接字:Socket

Redis,Nginx,Netty为什么这么香?

套接字作用如下:

  • 有了套接字,才可以进行网络编程。 
  • 应用程序通过系统调用 socket(),建立连接,接收和发送数据(I/O)。 
  • Socket 支持了非阻塞,应用程序才能非阻塞调用,支持了异步,应用程序才能异步调用。

文件描述符:FD 句柄

网络编程都需要知道 FD???FD 是个什么鬼???Linux:万物都是文件,FD 就是文件的引用。

像不像 Java 中万物都是对象?程序中操作的是对象的引用。Java 中创建对象的个数有内存的限制,同样 FD 的个数也是有限制的。

Redis,Nginx,Netty为什么这么香?

Linux 在处理文件和网络连接时,都需要打开和关闭 FD。

每个进程都会有默认的 FD:

  • 0 标准输入 stdin 
  • 1 标准输出 stdout 
  • 2 错误输出 stderr

服务端处理网络请求的过程

Redis,Nginx,Netty为什么这么香?

服务端处理网络请求的过程如上图:

  • 连接建立后。 
  • 等待数据准备好(CPU 闲置)。 
  • 将数据从内核拷贝到进程中(CPU 闲置)。

怎么优化呢?对于一次 I/O 访问(以 read 举例),数据会先被拷贝到操作系统内核的缓冲区,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。

所以说,当一个 read 操作发生时,它会经历两个阶段:

  • 等待数据准备 (Waiting for the data to be ready)。 
  • 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)。

正是因为这两个阶段,Linux 系统升级迭代中出现了下面三种网络模式的解决方案。

I/O 模型

阻塞 I/O:Blocking I/O

Redis,Nginx,Netty为什么这么香?

简介:最原始的网络 I/O 模型。进程会一直阻塞,直到数据拷贝完成。

缺点:高并发时,服务端与客户端对等连接。

线程多带来的问题:

  • CPU 资源浪费,上下文切换。 
  • 内存成本几何上升,JVM 一个线程的成本约 1MB。
  1. public static void main(String[] args) throws IOException { 
  2.         ServerSocket ss = new ServerSocket(); 
  3.         ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); 
  4.         int idx =0
  5.         while (true) { 
  6.             final Socket socket = ss.accept();//阻塞方法 
  7.             new Thread(() -> { 
  8.                 handle(socket); 
  9.             },"线程["+idx+"]" ).start(); 
  10.         } 
  11.     } 
  12.  
  13.     static void handle(Socket socket) { 
  14.         byte[] bytes = new byte[1024]; 
  15.         try { 
  16.             String serverMsg = "  server sss[ 线程:"+ Thread.currentThread().getName() +"]"
  17.             socket.getOutputStream().write(serverMsg.getBytes());//阻塞方法 
  18.             socket.getOutputStream().flush(); 
  19.         } catch (Exception e) { 
  20.             e.printStackTrace(); 
  21.         } 
  22.     } 

非阻塞 I/O:Non Blocking IO

Redis,Nginx,Netty为什么这么香?

简介:进程反复系统调用,并马上返回结果。

缺点:当进程有 1000fds,代表用户进程轮询发生系统调用 1000 次 kernel,来回的用户态和内核态的切换,成本几何上升。

  1. public static void main(String[] args) throws IOException { 
  2.         ServerSocketChannel ss = ServerSocketChannel.open(); 
  3.         ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); 
  4.         System.out.println(" NIO server started ... "); 
  5.         ss.configureBlocking(false); 
  6.         int idx =0
  7.         while (true) { 
  8.             final SocketChannel socket = ss.accept();//阻塞方法 
  9.             new Thread(() -> { 
  10.                 handle(socket); 
  11.             },"线程["+idx+"]" ).start(); 
  12.         } 
  13.     } 
  14.     static void handle(SocketChannel socket) { 
  15.         try { 
  16.             socket.configureBlocking(false); 
  17.             ByteBuffer byteBuffer = ByteBuffer.allocate(1024); 
  18.             socket.read(byteBuffer); 
  19.             byteBuffer.flip(); 
  20.             System.out.println("请求:" + new String(byteBuffer.array())); 
  21.             String resp = "服务器响应"
  22.             byteBuffer.get(resp.getBytes()); 
  23.             socket.write(byteBuffer); 
  24.         } catch (IOException e) { 
  25.             e.printStackTrace(); 
  26.         } 
  27.     } 

I/O 多路复用:IO multiplexing

Redis,Nginx,Netty为什么这么香?

简介:单个线程就可以同时处理多个网络连接。内核负责轮询所有 Socket,当某个 Socket 有数据到达了,就通知用户进程。

多路复用在 Linux 内核代码迭代过程中依次支持了三种调用,即 Select、Poll、Epoll 三种多路复用的网络 I/O 模型。下文将画图结合 Java 代码解释。

①I/O 多路复用:Select

Redis,Nginx,Netty为什么这么香?

简介:有连接请求抵达了再检查处理。

缺点如下:

  • 句柄上限:默认打开的 FD 有限制,1024 个。 
  • 重复初始化:每次调用 select(),需要把 FD 集合从用户态拷贝到内核态,内核进行遍历。 
  • 逐个排查所有 FD 状态效率不高。

服务端的 Select 就像一块布满插口的插排,Client 端的连接连上其中一个插口,建立了一个通道,然后再在通道依次注册读写事件。 

一个就绪、读或写事件处理时一定记得删除,要不下次还能处理。

  1. public static void main(String[] args) throws IOException { 
  2.         ServerSocketChannel ssc = ServerSocketChannel.open();//管道型ServerSocket 
  3.         ssc.socket().bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); 
  4.         ssc.configureBlocking(false);//设置非阻塞 
  5.         System.out.println(" NIO single server started, listening on :" + ssc.getLocalAddress()); 
  6.         Selector selector = Selector.open(); 
  7.         ssc.register(selector, SelectionKey.OP_ACCEPT);//在建立好的管道上,注册关心的事件 就绪 
  8.         while(true) { 
  9.             selector.select(); 
  10.             Set<SelectionKey> keys = selector.selectedKeys(); 
  11.             Iterator<SelectionKey> it = keys.iterator(); 
  12.             while(it.hasNext()) { 
  13.                 SelectionKey key = it.next(); 
  14.                 it.remove();//处理的事件,必须删除 
  15.                 handle(key); 
  16.             } 
  17.         } 
  18.     } 
  19.     private static void handle(SelectionKey key) throws IOException { 
  20.         if(key.isAcceptable()) { 
  21.                 ServerSocketChannel ssc = (ServerSocketChannel) key.channel(); 
  22.                 SocketChannel sc = ssc.accept(); 
  23.                 sc.configureBlocking(false);//设置非阻塞 
  24.                 sc.register(key.selector(), SelectionKey.OP_READ );//在建立好的管道上,注册关心的事件 可读 
  25.         } else if (key.isReadable()) { //flip 
  26.             SocketChannel sc = null
  27.                 sc = (SocketChannel)key.channel(); 
  28.                 ByteBuffer buffer = ByteBuffer.allocate(512); 
  29.                 buffer.clear(); 
  30.                 int len = sc.read(buffer); 
  31.                 if(len != -1) { 
  32.                     System.out.println("[" +Thread.currentThread().getName()+"] recv :"new String(buffer.array(), 0, len)); 
  33.                 } 
  34.                 ByteBuffer bufferToWrite = ByteBuffer.wrap("HelloClient".getBytes()); 
  35.                 sc.write(bufferToWrite); 
  36.         } 
  37.     } 

②I/O 多路复用:Poll

Redis,Nginx,Netty为什么这么香?

简介:设计新的数据结构(链表)提供使用效率。

Poll 和 Select 相比在本质上变化不大,只是 Poll 没有了 Select 方式的最大文件描述符数量的限制。

缺点:逐个排查所有 FD 状态效率不高。

③I/O 多路复用:Epoll

简介:没有 FD 个数限制,用户态拷贝到内核态只需要一次,使用事件通知机制来触发。

通过 epoll_ctl 注册 FD,一旦 FD 就绪就会通过 Callback 回调机制来激活对应 FD,进行相关的 I/O 操作。

缺点如下:

  • 跨平台,Linux 支持最好。 
  • 底层实现复杂。 
  • 同步。
  1. public static void main(String[] args) throws Exception { 
  2.         final AsynchronousServerSocketChannel serverChannel = AsynchronousServerSocketChannel.open() 
  3.                 .bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); 
  4.         serverChannel.accept(nullnew CompletionHandler<AsynchronousSocketChannel, Object>() { 
  5.             @Override 
  6.             public void completed(final AsynchronousSocketChannel client, Object attachment) { 
  7.                 serverChannel.accept(nullthis); 
  8.                 ByteBuffer buffer = ByteBuffer.allocate(1024); 
  9.                 client.read(buffer, buffer, new CompletionHandler<Integer, ByteBuffer>() { 
  10.                     @Override 
  11.                     public void completed(Integer result, ByteBuffer attachment) { 
  12.                         attachment.flip(); 
  13.                         client.write(ByteBuffer.wrap("HelloClient".getBytes()));//业务逻辑 
  14.                     } 
  15.                     @Override 
  16.                     public void failed(Throwable exc, ByteBuffer attachment) { 
  17.                         System.out.println(exc.getMessage());//失败处理 
  18.                     } 
  19.                 }); 
  20.             } 
  21.             @Override 
  22.             public void failed(Throwable exc, Object attachment) { 
  23.                 exc.printStackTrace();//失败处理 
  24.             } 
  25.         }); 
  26.         while (true) { 
  27.             //不while true main方法一瞬间结束 
  28.         } 
  29.     } 

当然上面的缺点相比较它的优点都可以忽略。JDK 提供了异步方式实现,但在实际的 Linux 环境中底层还是 Epoll,只不过多了一层循环,不算真正的异步非阻塞。

而且就像上图中代码调用,处理网络连接的代码和业务代码解耦得不够好。

Netty 提供了简洁、解耦、结构清晰的 API。

  1. public static void main(String[] args) { 
  2.         new NettyServer().serverStart(); 
  3.         System.out.println("Netty server started !"); 
  4.     } 
  5.     public void serverStart() { 
  6.         EventLoopGroup bossGroup = new NioEventLoopGroup(); 
  7.         EventLoopGroup workerGroup = new NioEventLoopGroup(); 
  8.         ServerBootstrap b = new ServerBootstrap(); 
  9.         b.group(bossGroup, workerGroup) 
  10.                 .channel(NioServerSocketChannel.class
  11.                 .childHandler(new ChannelInitializer<SocketChannel>() { 
  12.                     @Override 
  13.                     protected void initChannel(SocketChannel ch) throws Exception { 
  14.                         ch.pipeline().addLast(new Handler()); 
  15.                     } 
  16.                 }); 
  17.         try { 
  18.             ChannelFuture f = b.localAddress(Constant.HOST, Constant.PORT).bind().sync(); 
  19.             f.channel().closeFuture().sync(); 
  20.         } catch (InterruptedException e) { 
  21.             e.printStackTrace(); 
  22.         } finally { 
  23.             workerGroup.shutdownGracefully(); 
  24.             bossGroup.shutdownGracefully(); 
  25.         } 
  26.     } 
  27.  
  28. class Handler extends ChannelInboundHandlerAdapter { 
  29.     @Override 
  30.     public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { 
  31.         ByteBuf buf = (ByteBuf) msg; 
  32.         ctx.writeAndFlush(msg); 
  33.         ctx.close(); 
  34.     } 
  35.  
  36.     @Override 
  37.     public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { 
  38.         cause.printStackTrace(); 
  39.         ctx.close(); 
  40.     } 

bossGroup 处理网络请求的大管家(们),网络连接就绪时,交给 workGroup 干活的工人(们)。

总结

回顾上文总结如下:

  • 同步/异步,连接建立后,用户程序读写时,如果最终还是需要用户程序来调用系统 read() 来读数据,那就是同步的,反之是异步。Windows 实现了真正的异步,内核代码甚为复杂,但对用户程序来说是透明的。 
  • 阻塞/非阻塞,连接建立后,用户程序在等待可读可写时,是不是可以干别的事儿。如果可以就是非阻塞,反之阻塞。大多数操作系统都支持的。

Redis,Nginx,Netty,Node.js 为什么这么香?这些技术都是伴随 Linux 内核迭代中提供了高效处理网络请求的系统调用而出现的。

了解计算机底层的知识才能更深刻地理解 I/O,知其然,更要知其所以然。与君共勉!

作者:周胜帅

简介:宜信支付结算部支付研发团队高级工程师

编辑:陶家龙、孙淑娟

出处:转载自微信公众号野指针,专注分享技术人的点点滴滴,包括但不限于技术点解析、技术心得、实践案例、技术人成长等。

 

 

责任编辑:张燕妮 来源: 51CTO技术栈
相关推荐

2020-09-27 08:12:09

Nginx反向代理负载均衡

2020-02-27 15:44:41

Nginx服务器反向代理

2023-03-21 08:02:36

Redis6.0IO多线程

2023-08-29 07:46:08

Redis数据ReHash

2020-08-14 09:11:29

RedisQPS数据库

2020-04-27 07:13:37

Nginx底层进程

2020-10-21 09:17:52

Redis面试内存

2022-01-04 08:54:32

Redis数据库数据类型

2021-06-27 22:48:28

Redis数据库内存

2019-06-17 14:20:51

Redis数据库Java

2022-06-13 21:52:02

CDN网络节点

2020-02-27 21:03:30

调度器架构效率

2018-08-16 08:03:21

Python语言解释器

2019-08-30 14:58:47

JavaScript程序员编程语言

2013-03-04 10:10:36

WebKit浏览器

2024-02-26 21:15:20

Kafka缓存参数

2022-06-02 08:03:19

PyCharmPython代码

2020-04-29 08:04:11

NoSQLMySQLSQL

2021-05-19 09:37:45

SessionTokencookie

2011-11-28 10:21:52

Nginx特性
点赞
收藏

51CTO技术栈公众号