写点什么

从操作系统层面理解 Linux 下的网络 IO 模型

  • 2020-02-06
  • 本文字数:5756 字

    阅读完需:约 19 分钟

从操作系统层面理解Linux下的网络IO模型

I/O( INPUT OUTPUT),包括文件 I/O、网络 I/O。


计算机世界里的速度鄙视:


  • 内存读数据:纳秒级别。

  • 千兆网卡读数据:微妙级别。1 微秒=1000 纳秒,网卡比内存慢了千倍。

  • 磁盘读数据:毫秒级别。1 毫秒=10 万纳秒 ,硬盘比内存慢了 10 万倍。

  • CPU 一个时钟周期 1 纳秒上下,内存算是比较接近 CPU 的,其他都等不起。


CPU 处理数据的速度远大于 I/O 准备数据的速度 。


任何编程语言都会遇到这种 CPU 处理速度和 I/O 速度不匹配的问题!


在网络编程中如何进行网络 I/O 优化:怎么高效地利用 CPU 进行网络数据处理???

一、相关概念

从操作系统层面怎么理解网络 I/O 呢?计算机的世界有一套自己定义的概念。如果不明白这些概念,就无法真正明白技术的设计思路和本质。所以在我看来,这些概念是了解技术和计算机世界的基础。

1.1 同步与异步,阻塞与非阻塞

理解网络 I/O 避不开的话题:同步与异步,阻塞与非阻塞。


拿山治烧水举例来说,(山治的行为好比用户程序,烧水好比内核提供的系统调用),这两组概念翻译成大白话可以这么理解。


  • 同步/异步关注的是水烧开之后需不需要我来处理。

  • 阻塞/非阻塞关注的是在水烧开的这段时间是不是干了其他事。

1.1.1 同步阻塞

点火后,傻等,不等到水开坚决不干任何事(阻塞),水开了关火(同步)。


1576642331113004942.png

1.1.2 同步非阻塞

点火后,去看电视(非阻塞),时不时看水开了没有,水开后关火(同步)。


1576642338581018229.png

1.1.3 异步阻塞

按下开关后,傻等水开(阻塞),水开后自动断电(异步)。


1576642347459009266.png


网络编程中不存在的模型。

1.1.4 异步非阻塞

按下开关后,该干嘛干嘛 (非阻塞),水开后自动断电(异步)。


1576642355117019190.png

1.2 内核空间 、用户空间

1576642436600045337.png


  • 内核负责网络和文件数据的读写。

  • 用户程序通过系统调用获得网络和文件的数据。

1.2.1 内核态 用户态

1576642443468051843.png


  • 程序为读写数据不得不发生系统调用。

  • 通过系统调用接口,线程从用户态切换到内核态,内核读写数据后,再切换回来。

  • 进程或线程的不同空间状态。

1.2.2 线程的切换

1576642455359030556.png


用户态和内核态的切换耗时,费资源(内存、CPU)


优化建议:


  • 更少的切换。

  • 共享空间。

1.3 套接字 – socket

1576642467801001182.png


  • 有了套接字,才可以进行网络编程。

  • 应用程序通过系统调用 socket(),建立连接,接收和发送数据(I / O)。

  • SOCKET 支持了非阻塞,应用程序才能非阻塞调用,支持了异步,应用程序才能异步调用

1.4 文件描述符 –FD 句柄

1576642483782050770.png


1576642490076078154.png


1576642496249034409.png


网络编程都需要知道 FD??? FD 是个什么鬼???


Linux:万物都是文件,FD 就是文件的引用。像不像 JAVA 中万物都是对象?程序中操作的是对象的引用。JAVA 中创建对象的个数有内存的限制,同样 FD 的个数也是有限制的。


1576642507958005360.png


Linux 在处理文件和网络连接时,都需要打开和关闭 FD。


每个进程都会有默认的 FD:


  • 0 标准输入 stdin

  • 1 标准输出 stdout

  • 2 错误输出 stderr

1.5 服务端处理网络请求的过程

1576642527144025402.png


  • 连接建立后。

  • 等待数据准备好(CPU 闲置)。

  • 将数据从内核拷贝到进程中(CPU 闲置)。


怎么优化呢?


对于一次 I/O 访问(以 read 举例),数据会先被拷贝到操作系统内核的缓冲区,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。


所以说,当一个 read 操作发生时,它会经历两个阶段:


  • 等待数据准备 (Waiting for the data to be ready)。

  • 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)。


正是因为这两个阶段,Linux 系统升级迭代中出现了下面三种网络模式的解决方案。

二、IO 模型介绍

2.1 阻塞 I/O - Blocking I/O

1576642540134016122.png


简介:最原始的网络 I/O 模型。进程会一直阻塞,直到数据拷贝完成。


缺点:高并发时,服务端与客户端对等连接,线程多带来的问题:


  • CPU 资源浪费,上下文切换。

  • 内存成本几何上升,JVM 一个线程的成本约 1MB。


public static void main(String[] args) throws IOException {        ServerSocket ss = new ServerSocket();        ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT));        int idx =0;        while (true) {            final Socket socket = ss.accept();//阻塞方法            new Thread(() -> {                handle(socket);            },"线程["+idx+"]" ).start();        }    }
static void handle(Socket socket) { byte[] bytes = new byte[1024]; try { String serverMsg = " server sss[ 线程:"+ Thread.currentThread().getName() +"]"; socket.getOutputStream().write(serverMsg.getBytes());//阻塞方法 socket.getOutputStream().flush(); } catch (Exception e) { e.printStackTrace(); } }
复制代码

2.2 非阻塞 I/O - Non Blocking IO

1576642704039025856.png


简介:进程反复系统调用,并马上返回结果。


缺点:当进程有 1000fds,代表用户进程轮询发生系统调用 1000 次 kernel,来回的用户态和内核态的切换,成本几何上升。


public static void main(String[] args) throws IOException {        ServerSocketChannel ss = ServerSocketChannel.open();        ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT));        System.out.println(" NIO server started ... ");        ss.configureBlocking(false);        int idx =0;        while (true) {            final SocketChannel socket = ss.accept();//阻塞方法            new Thread(() -> {                handle(socket);            },"线程["+idx+"]" ).start();        }    }    static void handle(SocketChannel socket) {        try {            socket.configureBlocking(false);            ByteBuffer byteBuffer = ByteBuffer.allocate(1024);            socket.read(byteBuffer);            byteBuffer.flip();            System.out.println("请求:" + new String(byteBuffer.array()));            String resp = "服务器响应";            byteBuffer.get(resp.getBytes());            socket.write(byteBuffer);        } catch (IOException e) {            e.printStackTrace();        }    }
复制代码

2.3 I/O 多路复用 - IO multiplexing

1576642721053094559.png


简介:单个线程就可以同时处理多个网络连接。内核负责轮询所有 socket,当某个 socket 有数据到达了,就通知用户进程。多路复用在 Linux 内核代码迭代过程中依次支持了三种调用,即 SELECT、POLL、EPOLL 三种多路复用的网络 I/O 模型。下文将画图结合 Java 代码解释。

2.3.1 I/O 多路复用- select

1576642729644083157.png


简介:有连接请求抵达了再检查处理。


缺点:


  • 句柄上限- 默认打开的 FD 有限制,1024 个。

  • 重复初始化-每次调用 select(),需要把 fd 集合从用户态拷贝到内核态,内核进行遍历。

  • 逐个排查所有 FD 状态效率不高。


服务端的 select 就像一块布满插口的插排,client 端的连接连上其中一个插口,建立了一个通道,然后再在通道依次注册读写事件。一个就绪、读或写事件处理时一定记得删除,要不下次还能处理。


public static void main(String[] args) throws IOException {        ServerSocketChannel ssc = ServerSocketChannel.open();//管道型ServerSocket        ssc.socket().bind(new InetSocketAddress(Constant.HOST, Constant.PORT));        ssc.configureBlocking(false);//设置非阻塞        System.out.println(" NIO single server started, listening on :" + ssc.getLocalAddress());        Selector selector = Selector.open();        ssc.register(selector, SelectionKey.OP_ACCEPT);//在建立好的管道上,注册关心的事件 就绪        while(true) {            selector.select();            Set keys = selector.selectedKeys();            Iterator it = keys.iterator();            while(it.hasNext()) {                SelectionKey key = it.next();                it.remove();//处理的事件,必须删除                handle(key);            }        }    }    private static void handle(SelectionKey key) throws IOException {        if(key.isAcceptable()) {                ServerSocketChannel ssc = (ServerSocketChannel) key.channel();                SocketChannel sc = ssc.accept();                sc.configureBlocking(false);//设置非阻塞                sc.register(key.selector(), SelectionKey.OP_READ );//在建立好的管道上,注册关心的事件 可读        } else if (key.isReadable()) { //flip            SocketChannel sc = null;                sc = (SocketChannel)key.channel();                ByteBuffer buffer = ByteBuffer.allocate(512);                buffer.clear();                int len = sc.read(buffer);                if(len != -1) {                    System.out.println("[" +Thread.currentThread().getName()+"] recv :"+ new String(buffer.array(), 0, len));                }                ByteBuffer bufferToWrite = ByteBuffer.wrap("HelloClient".getBytes());                sc.write(bufferToWrite);        }    }
复制代码

2.3.2 I/O 多路复用 – poll

1576642741019008193.png


简介:设计新的数据结构(链表)提供使用效率。


poll 和 select 相比在本质上变化不大,只是 poll 没有了 select 方式的最大文件描述符数量的限制。


缺点:逐个排查所有 FD 状态效率不高。

2.3.3 I/O 多路复用- epoll

简介:没有 fd 个数限制,用户态拷贝到内核态只需要一次,使用事件通知机制来触发。通过 epoll_ctl 注册 fd,一旦 fd 就绪就会通过 callback 回调机制来激活对应 fd,进行相关的 I/O 操作。


缺点:


  • 跨平台,Linux 支持最好。

  • 底层实现复杂。

  • 同步。


 public static void main(String[] args) throws Exception {        final AsynchronousServerSocketChannel serverChannel = AsynchronousServerSocketChannel.open()                .bind(new InetSocketAddress(Constant.HOST, Constant.PORT));        serverChannel.accept(null, new CompletionHandler() {            @Override            public void completed(final AsynchronousSocketChannel client, Object attachment) {                serverChannel.accept(null, this);                ByteBuffer buffer = ByteBuffer.allocate(1024);                client.read(buffer, buffer, new CompletionHandler() {                    @Override                    public void completed(Integer result, ByteBuffer attachment) {                        attachment.flip();                        client.write(ByteBuffer.wrap("HelloClient".getBytes()));//业务逻辑                    }                    @Override                    public void failed(Throwable exc, ByteBuffer attachment) {                        System.out.println(exc.getMessage());//失败处理                    }                });            }
@Override public void failed(Throwable exc, Object attachment) { exc.printStackTrace();//失败处理 } }); while (true) { //不while true main方法一瞬间结束 } }
复制代码


当然上面的缺点相比较它优点都可以忽略。JDK 提供了异步方式实现,但在实际的 Linux 环境中底层还是 epoll,只不过多了一层循环,不算真正的异步非阻塞。而且就像上图中代码调用,处理网络连接的代码和业务代码解耦得不够好。Netty 提供了简洁、解耦、结构清晰的 API。


 public static void main(String[] args) {        new NettyServer().serverStart();        System.out.println("Netty server started !");    }
public void serverStart() { EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer() { @Override protected void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new Handler()); } }); try { ChannelFuture f = b.localAddress(Constant.HOST, Constant.PORT).bind().sync(); f.channel().closeFuture().sync(); } catch (InterruptedException e) { e.printStackTrace(); } finally { workerGroup.shutdownGracefully(); bossGroup.shutdownGracefully(); } }}
class Handler extends ChannelInboundHandlerAdapter { @Override public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { ByteBuf buf = (ByteBuf) msg; ctx.writeAndFlush(msg); ctx.close(); }
@Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { cause.printStackTrace(); ctx.close(); }}
复制代码


bossGroup 处理网络请求的大管家(们),网络连接就绪时,交给 workGroup 干活的工人(们)。

三、总结

回顾

  • 同步/异步,连接建立后,用户程序读写时,如果最终还是需要用户程序来调用系统 read()来读数据,那就是同步的,反之是异步。Windows 实现了真正的异步,内核代码甚为复杂,但对用户程序来说是透明的。

  • 阻塞/非阻塞,连接建立后,用户程序在等待可读可写时,是不是可以干别的事儿。如果可以就是非阻塞,反之阻塞。大多数操作系统都支持的。

Redis,Nginx,Netty,Node.js 为什么这么香?

这些技术都是伴随 Linux 内核迭代中提供了高效处理网络请求的系统调用而出现的。了解计算机底层的知识才能更深刻地理解 I/O,知其然,更要知其所以然。与君共勉!


本文转载自宜信技术学院网站。


原文链接:http://college.creditease.cn/detail/337


2020-02-06 10:331527

评论

发布
暂无评论
发现更多内容

通用连接池帮你解决资源管理难题

万俊峰Kevin

MySQL redis mongodb pool Go 语言

小傅哥,一个有“副业”的码农!

小傅哥

Java 小傅哥 技术成长 码农副业

【Flutter 专题】120 Flutter & 腾讯移动通讯 TPNS~

阿策小和尚

5月日更 Flutter 小菜 0 基础学习 Flutter Android 小菜鸟

Nginx调试必备的几种技能

运维研习社

nginx 运维 实用技巧 5月日更

记一次与写作朋友的线下沙龙

架构精进之路

技术交流 杂记 5月日更

访问控制

escray

学习 极客时间 安全 5月日更 安全攻防技能30讲

ThreadLocal内存溢出代码演示和原因分析!

王磊

Java 多线程

GitHub开源的10个超棒后台管理面板

不脱发的程序猿

GitHub 开源 后台管理面板

手把手带你体验 Amazon Graviton2 的高性价比!文末有惊喜

亚马逊云科技 (Amazon Web Services)

Feed流系统重构-架构篇

勇哥java实战分享

架构 RocketMQ 分库分表 ShardingJDBC redisson

掌握学习方法,成为技术大牛

实力程序员

字节、美团等客户与华为联合创新DCI智能控制器,共筑互联网基础设施新生态

强化基于位置的4种营销策略

郑州埃文科技

IP 营销 ISP

☕【JVM 技术之旅】深入JVM原理分析synchronized

码界西柚

synchronized 重量级锁 5月日更 同步锁 ObjectMontior

Java设置Filter过滤了CSS等静态文件的问题

空城机

Java 5月日更

Dubbo 路由规则之标签路由

青年IT男

dubbo

腾讯云实名认证流程

三掌柜

5月日更

redis在微服务领域的贡献

捉虫大师

redis dubbo RPC 协议 注册中心

CG行业云渲染服务的演进之路

华为云开发者联盟

公有云 CG 渲染 云渲染 影视动画

Cilium 1.10 重磅发布!】支持 Wireguard, BGP, Egress IP 网关, XDP 负载均衡, 阿里云集成

公众号:云原生Serverless

云原生 cilium cni

再不解决延迟不当,小心你的内存被打爆

华为云开发者联盟

线程 延迟 内存 并发 Sleep

屏幕共享的实现与应用

anyRTC开发者

音视频 WebRTC RTC sdk

密码学系列之:memory-hard函数

程序那些事

加密解密 密码学 程序那些事

k8s 集群下微服务 pod 的各种指标信息监控

Damon

微服务 5月日更

探索专有领域的端到端ASR解决之道

华为云开发者联盟

端到端 ASR 自动语音识别 语境偏移 专有领域

全新F1洞察精彩亮相,帮你理解赛道上的瞬间决定!

亚马逊云科技 (Amazon Web Services)

从寻人到航天,科技与公益的下一个交汇点正在“星辰”中诞生

脑极体

选择排序&插入排序 - DAY 15

Qien Z.

排序算法 插入排序 5月日更

☕【JVM 技术之旅】攻克技术盲点之“JVM常量池们“

码界西柚

JVM 5月日更 字符串常量池 静态常量池 运行时常量池

5G掀起工业互联网浪潮,水泥厂智能管理模式收效颇丰

一只数据鲸鱼

数据可视化 工业互联网 智慧工厂 水泥厂 智能工厂

详解 WebRTC 高音质低延时的背后 — AGC(自动增益控制)

阿里云CloudImagine

阿里云 WebRTC 3A算法 音频技术 视频云

从操作系统层面理解Linux下的网络IO模型_行业深度_周胜帅_InfoQ精选文章