如何使用io_uring构建快速响应的I/O密集型应用
一、同步与异步
用于形容两者的关系,是同时存在的参考物。
同步: 所谓同步,就是发起一个请求时,在返回结果前,该调用不会返回。类似串行的概念。
异步: 异步的概念和同步相对,当发起一个请求时,该调用立刻返回,不等待结果,实际返回的结果由另外的线程 / 进程处理。类似并行的概念。
二、io_uring系统调用
io_uring从linix 5.1内核开始支持,但是到linix5.10后才达到比较好的支持,所以使用io_uring编程时,最好使用linix 5.10版本之后。升级linux内核可以参考ubuntu升级Linux内核版本_ubuntu 升级内核_Lion Long的博客-CSDN博客。
内核提供三个接口,函数原型:
#include <linux/io_uring.h>
int io_uring_setup(u32 entries,struct io_uring_params *p);
int io_uring_register(unsigned int fd,unsigned int opcode,void *arg,unsigned int nr_args);
int io_uring_entry(unsigned int fd,unsigned int to_submit,
unsigned int min_complete,unsigned int flags,sigset_t *sig);
2.1、io_uring_setup
函数原型:
#include <linux/io_uring.h>
int io_uring_setup(u32 entries,struct io_uring_params *params);
系统调用,设置提交队列(SQ)和完成队列(CQ),其中至少包含entries条目,并返回一个文件描述符,可用于对io_urine实例执行后续操作。SQ和CQ在用户空间和内核之间共享,这减少了在启动和完成I/O时复制数据的消耗。
参数 | 含义 |
---|---|
entries | 队列元素个数 |
params | 配置io_uring,向内核传递选项,内核使用params传递有关环形缓冲区的信息。 |
成功时返回新的文件描述符。然后,应用程序可以在随后的mmap系统调用中提供文件描述符,以映射提交队列(submission queues)和完成队列(completion queues),或者传给io_uring_register() / io_uring_enter()系统调用。
出现错误时,返回负错误代码。调用方不应依赖errno变量。
错误码 | 含义 |
---|---|
EFAULT | 参数超出了您的可访问地址空间。 |
EINVAL | resv数组包含非零数据,p.flags包含非零支持标志,条目超出界限。 |
EMFILE | 已达到每个进程打开文件描述符数量的限制。 |
ENFILE | 已达到系统范围内打开文件总数的限制。 |
ENOMEM | 可用的内核资源不足。 |
EPERM | 已指定IORING_SETUP_SQPOLL,但调用方的有效用户ID没有足够的权限。 |
2.2、io_uring_register
函数原型:
#include <linux/io_uring.h>
int io_uring_register(unsigned int fd,unsigned int opcode,void *arg,unsigned int nr_args);
注册用于异步 I/O 的文件或用户缓冲区,使内核能长时间持有对该文件在内核内部的数据结构引用, 或创建应用内存的长期映射, 这个操作只会在注册时执行一次,而不是每个 I/O 请求都会处理,因此大大减少了每个IO的开销。
参数 | 含义 |
---|---|
fd | 文件描述符 ,是io_uring_setup返回的fd |
opcode | 操作代码 |
成功时返回0。
出现错误时,返回负错误代码。调用方不应依赖errno变量。
2.3、io_uring_enter
#include <linux/io_uring.h>
int io_uring_enter(unsigned int fd,unsigned int to_submit,
unsigned int min_complete,unsigned int flags,sigset_t *sig);
这个系统调用使用共享的 SQ 和 CQ初始化和完成(initiate and complete)I/O。
单次调用同时执行:提交新的 I/O 请求;等待 I/O 完成。
参数:
- fd:io_uring_setup返回的文件描述符。
- to_submit:指定要从提交队列提交的I/O数。
成功返回使用的I/O数量。如果to_submit为零或提交队列为空,则该值可以为零。注意,如果创建环时指定了IORING_SETUP_SQPOLL,则返回值通常与to_submit相同,因为提交发生在系统调用的上下文之外。
与提交队列条目相关的错误将通过完成队列条目返回,而不是通过系统调用本身返回。
不代表提交队列条目发生的错误将通过系统调用直接返回。在出现这种错误时,返回负错误代码。调用方不应依赖errno变量。
更多信息可以执行 man io_uring_enter查看
2.4、执行流程
三、io_uring相关结构体
3.1、struct io_uring_params 结构体
struct io_uring_params {
__u32 sq_entries;
__u32 cq_entries;
__u32 flags;
__u32 sq_thread_cpu;
__u32 sq_thread_idle;
__u32 features;
__u32 wq_fd;
__u32 resv[3];
struct io_sqring_offsets sq_off;
struct io_cqring_offsets cq_off;
};
flags、sq_thread_cpu和sq_ thread_idle字段用于配置io_uring实例。flags是一个位掩码,其中0个或多个以下值一起或:
标志 | 含义 |
---|---|
IORING_SETUP_IOPOLL | 执行繁忙等待I/O完成,而不是获取通过异步IRQ(中断请求)发送通知。 |
IORING_SETUP_SQPOLL | 创建一个内核线程来执行提交队列轮询 |
IORING_SETUP_SQ_AFF | 轮询线程将绑定到结构io_uring_params的sq_thread_cpu字段中设置的cpu。 |
IORING_SETUP_CQSIZE | 使用struct io_uring_params创建完成队列 |
IORING_SETUP_CLAMP | 如果指定了此标志,并且如果条目超过IORING_MAX_ENTERIES,则条目将被钳制在IORING_MAX_ENTERIES。如果设置了标志IORING _SETUP_SQPOLL,并且如果struct io_uring_params的值cq_entries超过IORING_MAX_ENTERIES,则它将被箝位在IORING_MAX_ENTERIES。 |
IORING_SETUP_ATTACH_WQ | 此标志应与struct io_uring_params一起设置 |
IORING_SETUP_R_DISABLED | 如果指定了该标志,io_uring环将以禁用状态启动。 |
3.2、struct io_cqring_offsets 结构体
struct io_cqring_offsets {
__u32 head;
__u32 tail;
__u32 ring_mask;
__u32 ring_entries;
__u32 overflow;
__u32 cqes;
__u32 flags;
__u32 resv[3];
};
3.3、struct io_uring_sqe 结构体
struct io_uring_sqe {
__u8 opcode; /* type of operation for this sqe */
__u8 flags; /* IOSQE_ flags */
__u16 ioprio; /* ioprio for the request */
__s32 fd; /* file descriptor to do IO on */
union {
__u64 off; /* offset into file */
__u64 addr2;
};
union {
__u64 addr; /* pointer to buffer or iovecs */
__u64 splice_off_in;
}
__u32 len; /* buffer size or number of iovecs */
union {
__kernel_rwf_t rw_flags;
__u32 fsync_flags;
__u16 poll_events; /* compatibility */
__u32 poll32_events; /* word-reversed for BE */
__u32 sync_range_flags;
__u32 msg_flags;
__u32 timeout_flags;
__u32 accept_flags;
__u32 cancel_flags;
__u32 open_flags;
__u32 statx_flags;
__u32 fadvise_advice;
__u32 splice_flags;
__u32 rename_flags;
__u32 unlink_flags;
__u32 hardlink_flags;
};
__u64 user_data; /* data to be passed back at completion time */
union {
struct {
/* index into fixed buffers, if used */
union {
/* index into fixed buffers, if used */
__u16 buf_index;
/* for grouped buffer selection */
__u16 buf_group;
}
/* personality to use, if used */
__u16 personality;
union {
__s32 splice_fd_in;
__u32 file_index;
};
};
__u64 __pad2[3];
};
};
3.4、struct io_uring_cqe 结构体
struct io_uring_cqe {
__u64 user_data; /* sqe->data submission passed back */
__s32 res; /* result code for this event */
__u32 flags;
};
四、liburing库安装
(1)下载源码。
git clone https://github.com/axboe/liburing.git
(2)进入liburing。
cd liburing
(3)配置。
./configure
(4)编译和安装。
make && sudo make install
(5)编译应用程序,一定要指定库 -luring -D_GUN_SOURCE。
gcc -o io_uring_test io_uring_test.c -luring -D_GUN_SOURCE
五、liburing提供的接口
5.1、io_uring_queue_init_params
函数原型:
#include <liburing.h>
int io_uring_queue_init(unsigned entries,
struct io_uring *ring,
unsigned flags);
int io_uring_queue_init_params(unsigned entries,
struct io_uring *ring,
struct io_uring_params *params);
io_uring_queue_init()函数执行io_uring_setup()系统调用来初始化内核中的提交队列和完成队列,其中至少包含提交队列中的条目,然后将生成的文件描述符映射到应用程序和内核之间共享的内存中。
默认情况下,CQ环的条目数将是SQ环条目指定的条目数的两倍。这对于常规文件或存储工作负载足够,但对于网络工作负载可能太小。SQ环条目并没有限制环可以支持的进程中请求的数量,它只是限制了一次(批)提交给内核的数量。如果CQ环溢出,例如,在应用程序可以获取它们之前,生成的条目比环中的条目多,则环进入CQ环溢流状态。这通过在SQ环标志中设置IORING_SQ_CQ_OVERFLOW来指示。除非内核耗尽可用内存,否则不会删除条目,但这是一条慢得多的完成路径,会减慢请求处理速度。因此,应该避免这种情况,并且CQ环的大小适合于工作负载。在struct io_uring_params中设置cq_entries将告诉内核为cq环分配这么多条目,与给定条目中的SQ环大小无关。如果该值不是2的幂,则将四舍五入到最接近的2的幂。
成功时,io_uring_queue_init返回0,ring将指向包含io_RUING队列的共享内存。失败时返回-errno。flags将传递给io_uring_setup系统调用。
如果使用io_uring_queue_init_params(),则params指示的参数将直接传递到io_uring_setup系统调用。成功后返回0,应通过对io_uring_queue_exit的相应调用释放ring持有的资源。失败时返回-errno。
5.2、io_uring_get_sqe
函数原型:
#include <liburing.h>
struct io_uring_sqe *io_uring_get_sqe(struct io_uring *ring);
- 从属于ring参数的提交队列中获取下一个可用的提交队列条目。
- 成功时返回一个指向提交队列条目的指针。
- 失败时返回NULL。
如果返回了提交队列条目,则应通过io_uring_prep_read()等准备函数之一填写该条目,并通过io_ uring_submit()提交。
如果返回NULL,则SQ环当前已满,必须提交条目进行处理,然后才能分配新条目。
5.3、io_uring_prep_accept
函数原型:
#include <sys/socket.h>
#include <liburing.h>
void io_uring_prep_accept(struct io_uring_sqe *sqe,
int sockfd,
struct sockaddr *addr,
socklen_t *addrlen,
int flags);
void io_uring_prep_accept_direct(struct io_uring_sqe *sqe,
int sockfd,
struct sockaddr *addr,
socklen_t *addrlen,
int flags,
unsigned int file_index);
void io_uring_prep_multishot_accept(struct io_uring_sqe *sqe,
int sockfd,
struct sockaddr *addr,
socklen_t *addrlen,
int flags);
void io_uring_prep_multishot_accept_direct(struct io_uring_sqe *sqe,
int sockfd,
struct sockaddr *addr,
socklen_t *addrlen,
int flags);
这些函数准备一个异步accept()请求。
io_uring_prep_accept()函数准备接受请求。提交队列条目sqe被设置为使用文件描述符sockfd开始接受由addr处的套接字地址和结构长度addrlen描述的连接请求,并在标志中使用修饰符标志。
注意:io_uring_prep_accept()与在结构中传递数据的任何请求一样,在成功提交请求之前,该数据必须保持有效。它不需要在完成之前保持有效。一旦请求被提交,内核状态就稳定了。
5.4、io_uring_prep_recv
函数原型:
#include <liburing.h>
void io_uring_prep_recv(struct io_uring_sqe *sqe,
int sockfd,
void *buf,
size_t len,
int flags);
void io_uring_prep_recv_multishot(struct io_uring_sqe *sqe,
int sockfd,
void *buf,
size_t len,
int flags);
描述:
io_uring_prep_recv()函数准备recv请求。提交队列条目sqe被设置为使用文件描述符sockfd来开始将数据接收到大小为size且具有修改标志flags的缓冲区目的地buf中。
此函数用于准备异步recv()请求。
multishot版本允许应用程序发出单个接收请求,当数据可用时,该请求会重复发布CQI。
5.5、io_uring_prep_send
函数原型:
#include <liburing.h>
void io_uring_prep_send(struct io_uring_sqe *sqe,
int sockfd,
const void *buf,
size_t len,
int flags);
描述:
io_uring_prep_send()函数准备发送请求。提交队列条目sqe被设置为使用文件描述符sockfd开始从buf发送大小为size的数据,并带有修改标志flags。
此函数用于准备异步send()请求。
5.6、io_uring_submit (重要)
函数原型:
#include <liburing.h>
int io_uring_submit(struct io_uring *ring);
描述:
- 将下一个事件提交到属于ring的提交队列。
- 调用者使用io_uring_get_sqe()检索提交队列条目(SQE)并使用提供的帮助程序之一准备SQE后,可以使用io_ uring_ submit()提交。
返回值:
- 成功时返回提交的提交队列条目数。
- 失败时返回-errno。
5.7、io_uring_submit_and_wait (重要)
函数原型:
#include <liburing.h>
int io_uring_submit_and_wait(struct io_uring *ring,unsigned wait_nr);
描述:
- 将下一个事件提交到属于环的提交队列,并等待wait_nr完成事件。
- 在调用方使用io_uring_get_sqe()检索提交队列条目(SQE)并准备SQE之后,可以使用io_ uring_ submit_and_wait()提交它。
返回值:
- 成功时返回提交的提交队列条目数。
- 失败时返回-errno。
5.8、io_uring_wait_cqe
函数原型:
#include <liburing.h>
int io_uring_wait_cqe(struct io_uring *ring,
struct io_uring_cqe **cqe_ptr);
描述:
- 等待来自属于环参数的队列的io完成,必要时等待。如果调用时环中已有事件可用,则不会发生等待。成功时填写cqe_ptr参数。
- 在呼叫者提交了具有io_uring_submit()的请求之后,应用程序可以使用io_uring_wait_cqe检索完成。
返回值:
- 成功时返回0,并填写cqe_ptr参数。失败时返回-errno。返回值指示等待CQE的结果,并且与CQE结果本身无关。
5.9、io_uring_peek_batch_cqe
#include <liburing.h>
int io_uring_peek_cqe(struct io_uring *ring,
struct io_uring_cqe **cqe_ptr);
int io_uring_peek_batch_cqe(struct io_uring *ring,
struct io_uring_cqe **cqe_ptr,
int count);
描述:
- io_uring_peek_cqe()函数从属于ring参数的队列返回IO完成(如果有)。成功返回后,cqe_ptr参数将填充有效的cqe条目。
- 此函数不进入内核等待事件,只有在CQ环中已经可用时才返回事件。
- io_uring_peek_batch_cqe是对io_uring_peek_cqe的封装,表示一次最多从ring参数获取count个IO完成。
返回值:
- 成功时io_uring_peek_cqe()返回0,并填写cqe_ptr参数。
- 失败时返回-EAGAIN。
- 成功时io_uring_peek_cqe()返回IO完成数量,并填写cqe_ptr参数。
- 失败时返回-EAGAIN。
5.10、io_uring_cq_advance
#include <liburing.h>
void io_uring_cq_advance(struct io_uring *ring,
unsigned nr);
描述:
io_uring_cq_advance()函数将属于ring参数的nr个io完成标记为消耗。
在呼叫者已经使用io_uring_submit()提交请求之后,应用程序可以使用io_ uring_ wait_cqe()、io_uring_peek_cqe()或任何其他cqe检索帮助器检索完成,并使用io_uring_cqe_seen()将其标记为。
函数io_uring_cqe_seen()调用io_ uring_cq_advance()函数。
完成必须标记为可见,以便可以重用它们的插槽。否则将导致在下一次调用时返回相同的完成。
5.11、更多接口
除了bind没有异步接口,其他基本都有。比如io_uring_prep_connect()、io_uring_prep_close()等等。
六、基于liburing的TCP服务器实现
在应用层使用io_uring,主要使用liburing库,它提供丰富的用户接口,底层调用的是三个内核io_uring系统调用。
基于liburing的TCP服务器实现示例代码:
#include <stdio.h>
#include <unistd.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <string.h>
#include <liburing.h>
#define ENTRIES_LENGTH 4096
#define RING_CQE_NUMBER 10
#define BUFFER_SIZE 1024
struct conninfo
{
int connfd;
int type;
};
enum
{
READ,
WRITE,
ACCPT,
};
void set_accept_event(struct io_uring *ring,int fd,
struct sockaddr* clientaddr, socklen_t *len,unsigned flags)
{
struct io_uring_sqe *sqe = io_uring_get_sqe(ring);//·µ»Ø¶ÓÁÐÊ×µØÖ·
io_uring_prep_accept(sqe, fd, clientaddr, len, flags);
struct conninfo ci = {
.connfd = fd,
.type = ACCPT
};
memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
}
void set_read_event(struct io_uring *ring, int fd, void *buf, size_t len, int flags)
{
struct io_uring_sqe *sqe = io_uring_get_sqe(ring);//·µ»Ø¶ÓÁÐÊ×µØÖ·
io_uring_prep_recv(sqe, fd, buf, len, flags);
struct conninfo ci = {
.connfd = fd,
.type = READ
};
memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
}
void set_write_event(struct io_uring *ring, int fd, void *buf, size_t len, int flags)
{
struct io_uring_sqe *sqe = io_uring_get_sqe(ring);//·µ»Ø¶ÓÁÐÊ×µØÖ·
io_uring_prep_send(sqe, fd, buf, len, flags);
struct conninfo ci = {
.connfd = fd,
.type = WRITE
};
memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
}
int main()
{
int listenfd = socket(AF_INET, SOCK_STREAM, 0);
if (listenfd == -1)
return -1;
struct sockaddr_in serveraddr,clientaddr;
serveraddr.sin_family = AF_INET;
serveraddr.sin_addr.s_addr = htonl(INADDR_ANY);
serveraddr.sin_port = htons(9999);
if (-1 == bind(listenfd, (struct sockaddr*)&serveraddr, sizeof(serveraddr)))
return -2;
listen(listenfd, 10);
struct io_uring_params params;
memset(¶ms,0,sizeof(params));
struct io_uring ring;
io_uring_queue_init_params(ENTRIES_LENGTH,&ring,¶ms);
socklen_t clientlen = sizeof(clientaddr);
set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr,&clientlen, 0);
char buffer[BUFFER_SIZE] = { 0 };
while (1)
{
struct io_uring_cqe *cqe;
io_uring_submit(&ring);
int ret = io_uring_wait_cqe(&ring,&cqe);
struct io_uring_cqe *cqes[RING_CQE_NUMBER];
int cqecount=io_uring_peek_batch_cqe(&ring, cqes, RING_CQE_NUMBER);
int i = 0;
unsigned count =0;
for (i = 0; i < cqecount; i++)
{
count++;
cqe = cqes[i];
struct conninfo ci;
memcpy(&ci, &cqe->user_data, sizeof(struct conninfo));
if (ci.type == ACCPT)
{
int connfd = cqe->res;
set_read_event(&ring, connfd, buffer, BUFFER_SIZE, 0);
set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr,&clientlen, 0);
}
else if (ci.type == READ)
{
int bufsize = cqe->res;
if(bufsize==0)
{
close(ci.connfd);
}
else if(bufsize<0)
{
}
else{
//set_read_event(&ring, ci.connfd, buffer, 1024, 0);
printf("buff: %s\n",buffer);
set_write_event(&ring, ci.connfd, buffer, bufsize, 0);
}
}
else if(ci.type == WRITE)
{
set_read_event(&ring, ci.connfd, buffer, BUFFER_SIZE, 0);
}
}
io_uring_cq_advance(&ring,count);
}
return 0;
}
总结
- io_uring主要由三部分构成:内核提供的三个系统调用接口(io_uring_setup、io_uring_register、io_uring_enter),内核实现的系统调用,应用层提供的liburing库。
- io_uring_submite会在底层协议栈执行accept、recv、send等功能。从fio测试磁盘IO的测试结果来看,io_uring的IOPS与libaio相同,是psync的两倍。
- io_uring的异步操作在内核下完成,用户态调用api是感觉不到异步操作的。
- io_uring实现TCP服务器的函数调用框图:
同时欢迎关注我的公众号,随时随地学习技术,微信搜索:Lion 莱恩呀。
- 点赞
- 收藏
- 关注作者
评论(0)