您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息

详细解析Redis中命令的原子性

2024/5/4 9:03:33发布26次查看
本篇文章给大家带来了关于redis的相关知识,其中主要介绍了关于原子操作中命令原子性的相关问题,包括了处理并发的方案、编程模型、多io线程以及单命令的相关内容,下面一起看一下,希望对大家有帮助。
推荐学习:redis视频教程
redis 如何应对并发访问redis 中处理并发的方案业务中有时候我们会用 redis 处理一些高并发的业务场景,例如,秒杀业务,对于库存的操作。。。
先来分析下,并发场景下会发生什么问题
并发问题主要发生在数据的修改上,对于客户端修改数据,一般分成下面两个步骤:
1、客户端先把数据读取到本地,在本地进行修改;
2、客户端修改完数据后,再写回redis。
我们把这个流程叫做读取-修改-写回操作(read-modify-write,简称为 rmw 操作)。如果客户端并发进行 rmw 操作的时候,就需要保证 读取-修改-写回是一个原子操作,进行命令操作的时候,其他客户端不能对当前的数据进行操作。
错误的栗子:
统计一个页面的访问次数,每次刷新页面访问次数+1,这里使用 redis 来记录访问次数。
如果每次的读取-修改-写回操作不是一个原子操作,那么就可能存在下图的问题,客户端2在客户端1操作的中途,也获取 redis 的值,也对值进行+1,操作,这样就导致最终数据的错误。
对于上面的这种情况,一般会有两种方式解决:
1、使用 redis 实现一把分布式锁,通过锁来保护每次只有一个线程来操作临界资源;
2、实现操作命令的原子性。
栗如,对于上面的错误栗子,如果读取-修改-写回是一个原子性的命令,那么这个命令在操作过程中就不有别的线程同时读取操作数据,这样就能避免上面栗子出现的问题。下面从原子性和锁两个方面,具体分析下,对并发访问问题的处理
原子性为了实现并发控制要求的临界区代码互斥执行,如果使用 redis 中命令的原子性,可以有下面两种处理方式:
1、借助于 redis 中的原子性的单命令;
2、把多个操作写到一个lua脚本中,以原子性方式执行单个lua脚本。
在探讨 redis 原子性的时候,先来探讨下 redis 中使用到的编程模型
redis 的编程模型redis 中使用到了 reactor 模型,reactor 是非阻塞 i/o 模型,这里来看下 unix 中的 i/o 模型。
unix 中的 i/o 模型操作系统上的 i/o 是用户空间和内核空间的数据交互,因此 i/o 操作通常包含以下两个步骤:
1、等待网络数据到达网卡(读就绪)/等待网卡可写(写就绪) –> 读取/写入到内核缓冲区;
2、从内核缓冲区复制数据 –> 用户空间(读)/从用户空间复制数据 -> 内核缓冲区(写);
unix 中有五种基本的 i/o 模型
阻塞式 i/o;非阻塞式 i/o;i/o 多路复用;信号驱动 i/o;异步 i/o;
而判定一个 i/o 模型是同步还是异步,主要看第二步:数据在用户和内核空间之间复制的时候是不是会阻塞当前进程,如果会,则是同步 i/o,否则,就是异步 i/o。
这里主要分下下面三种 i/o 模型
阻塞型 i/o;当用户程序执行 read ,线程会被阻塞,一直等到内核数据准备好,并把数据从内核缓冲区拷贝到应用程序的缓冲区中,当拷贝过程完成,read 才会返回。
阻塞等待的是「内核数据准备好」和「数据从内核态拷贝到用户态」这两个过程。
非阻塞同步 i/o;非阻塞的 read 请求在数据未准备好的情况下立即返回,可以继续往下执行,此时应用程序不断轮询内核,直到数据准备好,内核将数据拷贝到应用程序缓冲区,read 调用才可以获取到结果。
这里最后一次 read 调用,获取数据的过程,是一个同步的过程,是需要等待的过程。这里的同步指的是内核态的数据拷贝到用户程序的缓存区这个过程。
非阻塞异步 i/o;发起异步 i/o,就立即返回,内核自动将数据从内核空间拷贝到用户空间,这个拷贝过程同样是异步的,内核自动完成的,和前面的同步操作不一样,应用程序并不需要主动发起拷贝动作。
举个你去饭堂吃饭的例子,你好比应用程序,饭堂好比操作系统。
阻塞 i/o 好比,你去饭堂吃饭,但是饭堂的菜还没做好,然后你就一直在那里等啊等,等了好长一段时间终于等到饭堂阿姨把菜端了出来(数据准备的过程),但是你还得继续等阿姨把菜(内核空间)打到你的饭盒里(用户空间),经历完这两个过程,你才可以离开。
非阻塞 i/o 好比,你去了饭堂,问阿姨菜做好了没有,阿姨告诉你没,你就离开了,过几十分钟,你又来饭堂问阿姨,阿姨说做好了,于是阿姨帮你把菜打到你的饭盒里,这个过程你是得等待的。
异步 i/o 好比,你让饭堂阿姨将菜做好并把菜打到饭盒里后,把饭盒送到你面前,整个过程你都不需要任何等待。
在 web 服务中,处理 web 请求通常有两种体系结构,分别为:thread-based architecture(基于线程的架构)、event-driven architecture(事件驱动模型)
thread-based architecture(基于线程的架构)thread-based architecture(基于线程的架构):这种比较容易理解,就是多线程并发模式,服务端在处理请求的时候,一个请求分配一个独立的线程来处理。
因为每个请求分配一个独立的线程,所以单个线程的阻塞不会影响到其他的线程,能够提高程序的响应速度。
不足的是,连接和线程之间始终保持一对一的关系,如果是一直处于 keep-alive 状态的长连接将会导致大量工作线程在空闲状态下等待,例如,文件系统访问,网络等。此外,成百上千的连接还可能会导致并发线程浪费大量内存的堆栈空间。
event-driven architecture(事件驱动模型)事件驱动的体系结构由事件生产者和事件消费者组,是一种松耦合、分布式的驱动架构,生产者收集到某应用产生的事件后实时对事件采取必要的处理后路由至下游系统,无需等待系统响应,下游的事件消费者组收到是事件消息,异步的处理。
事件驱动架构具有以下优势:
降低耦合;降低事件生产者和订阅者的耦合性。事件生产者只需关注事件的发生,无需关注事件如何处理以及被分发给哪些订阅者。任何一个环节出现故障,不会影响其他业务正常运行。
异步执行;事件驱动架构适用于异步场景,即便是需求高峰期,收集各种来源的事件后保留在事件总线中,然后逐步分发传递事件,不会造成系统拥塞或资源过剩的情况。
可扩展性;事件驱动架构中路由和过滤能力支持划分服务,便于扩展和路由分发。
reactor 模式和 proactor 模式都是 event-driven architecture(事件驱动模型)的实现方式,这里具体分析下
reactor 模式reactor 模式,是指通过一个或多个输入同时传递给服务处理器的服务请求的事件驱动处理模式。
在处理⽹络 io 的连接事件、读事件、写事件。reactor 中引入了三类角色
reactor:监听和分配事件,连接事件交给 acceptor 处理,读写事件交给 handler 处理;acceptor:接收连接请求,接收连接后,会创建 handler ,处理网络连接上对后续读写事件的处理;handler:处理读写事件。
reactor 模型又分为 3 类:
单线程 reactor 模式;
建立连接(acceptor)、监听accept、read、write事件(reactor)、处理事件(handler)都只用一个单线程;
多线程 reactor 模式;
与单线程模式不同的是,添加了一个工作者线程池,并将非 i/o 操作从 reactor 线程中移出转交给工作者线程池(thread pool)来执行。
建立连接(acceptor)和 监听accept、read、write事件(reactor),复用一个线程。
工作线程池:处理事件(handler),由一个工作线程池来执行业务逻辑,包括数据就绪后,用户态的数据读写。
主从 reactor 模式;
对于多个cpu的机器,为充分利用系统资源,将 reactor 拆分为两部分:mainreactor 和 subreactor。
mainreactor:负责监听server socket,用来处理网络新连接的建立,将建立的socketchannel指定注册给subreactor,通常一个线程就可以处理;
subreactor:监听accept、read、write事件(reactor),包括等待数据就绪时,内核态的数据读写,通常使用多线程。
工作线程:处理事件(handler)可以和 subreactor 共同使用同一个线程,也可以做成线程池,类似上面多线程 reactor 模式下的工作线程池的处理方式。
proactor 模式reactor 流程与 reactor 模式类似
不同点就是
reactor 是非阻塞同步网络模式,感知的是就绪可读写事件。在每次感知到有事件发生(比如可读就绪事件)后,就需要应用进程主动调用 read 方法来完成数据的读取,也就是要应用进程主动将 socket 接收缓存中的数据读到应用进程内存中,这个过程是同步的,读取完数据后应用进程才能处理数据。
proactor 是异步网络模式,感知的是已完成的读写事件。在发起异步读写请求时,需要传入数据缓冲区的地址(用来存放结果数据)等信息,这样系统内核才可以自动帮我们把数据的读写工作完成,这里的读写工作全程由操作系统来做,并不需要像 reactor 那样还需要应用进程主动发起 read/write 来读写数据,操作系统完成读写工作后,就会通知应用进程直接处理数据。
因此,reactor 可以理解为「来了事件操作系统通知应用进程,让应用进程来处理」,而 proactor 可以理解为「来了事件操作系统来处理,处理完再通知应用进程」。
举个实际生活中的例子,reactor 模式就是快递员在楼下,给你打电话告诉你快递到你家小区了,你需要自己下楼来拿快递。而在 proactor 模式下,快递员直接将快递送到你家门口,然后通知你。
为什么 redis 选择单线程redis 中使用是单线程,可能处于以下几方面的考虑
1、redis 是纯内存的操作,执行速度是非常快的,因此这部分操作通常不会是性能瓶颈,性能瓶颈在于网络 i/o;
2、避免过多的上下文切换开销,单线程则可以规避进程内频繁的线程切换开销;
3、避免同步机制的开销,多线程必然会面临对于共享资源的访问,这时候通常的做法就是加锁,虽然是多线程,这时候就会变成串行的访问。也就是多线程编程模式会面临的共享资源的并发访问控制问题;
4、简单可维护,多线程也会引入同步原语来保护共享资源的并发访问,代码的可维护性和易读性将会下降。
redis 在 v6.0 版本之前,redis 的核心网络模型一直是一个典型的单 reactor 模型:利用 epoll/select/kqueue 等多路复用技术,在单线程的事件循环中不断去处理事件(客户端请求),最后回写响应数据到客户端:
这里来看下 redis 如何使用单线程处理任务
事件驱动框架对事件的捕获分发redis 的网络框架实现了 reactor 模型,并且自行开发实现了一个事件驱动框架。
事件驱动框架的逻辑简单点讲就是
事件初始化;事件捕获;分发和处理主循环。
来看下 redis 中事件驱动框架实现的几个主要函数
// 执行事件捕获,分发和处理循环void aemain(aeeventloop *eventloop);// 用来注册监听的事件和事件对应的处理函数。只有对事件和处理函数进行了注册,才能在事件发生时调用相应的函数进行处理。int aecreatefileevent(aeeventloop *eventloop, int fd, int mask, aefileproc *proc, void *clientdata);// aeprocessevents 函数实现的主要功能,包括捕获事件、判断事件类型和调用具体的事件处理函数,从而实现事件的处理int aeprocessevents(aeeventloop *eventloop, int flags);
使用 aemain 作为主循环来对事件进行持续监听和捕获,其中会调用 aeprocessevents 函数,实现事件捕获、判断事件类型和调用具体的事件处理函数,从而实现事件的处理。
// https://github.com/redis/redis/blob/5.0/src/ae.c#l496void aemain(aeeventloop *eventloop) {    eventloop->stop = 0;    while (!eventloop->stop) {        if (eventloop->beforesleep != null)            eventloop->beforesleep(eventloop);        aeprocessevents(eventloop, ae_all_events|ae_call_after_sleep);    }}// https://github.com/redis/redis/blob/5.0/src/ae.c#l358int aeprocessevents(aeeventloop *eventloop, int flags){       ...   if (eventloop->maxfd != -1 || ((flags & ae_time_events) && !(flags & ae_dont_wait))) {       ...       //调用aeapipoll函数捕获事件       numevents = aeapipoll(eventloop, tvp);       ...    }    ...}
可以看到 aeprocessevents 中对于 io 事件的捕获是通过调用 aeapipoll 来完成的。
aeapipoll 是 i/o 多路复用 api,是基于 epoll_wait/select/kevent 等系统调用的封装,监听等待读写事件触发,然后处理,它是事件循环(event loop)中的核心函数,是事件驱动得以运行的基础。
redis 是依赖于操作系统底层提供的 io 多路复用机制,来实现事件捕获,检查是否有新的连接、读写事件发生。为了适配不同的操作系统,redis 对不同操作系统实现的网络 io 多路复用函数,都进行了统一的封装。
// https://github.com/redis/redis/blob/5.0/src/ae.c#l49#ifdef have_evport#include ae_evport.c  // solaris#else    #ifdef have_epoll    #include ae_epoll.c   // linux    #else        #ifdef have_kqueue        #include ae_kqueue.c  // macos        #else        #include ae_select.c  // windows        #endif    #endif#endif
ae_epoll.c:对应 linux 上的 io 复用函数 epoll;
ae_evport.c:对应 solaris 上的 io 复用函数 evport;
ae_kqueue.c:对应 macos 或 freebsd 上的 io 复用函数 kqueue;
ae_select.c:对应 linux(或 windows)的 io 复用函数 select。
客户端连接应答监听 socket 的读事件,当有客户端连接请求过来,使用函数 accepttcphandler 和客户端建立连接
当 redis 启动后,服务器程序的 main 函数会调用 initsever 函数来进行初始化,而在初始化的过程中,aecreatefileevent 就会被 initserver 函数调用,用于注册要监听的事件,以及相应的事件处理函数。
// https://github.com/redis/redis/blob/5.0/src/server.c#l2036void initserver(void) {   ...    // 创建一个事件处理程序以接受 tcp 和 unix 中的新连接    for (j = 0; j < server.ipfd_count; j++) { if (aecreatefileevent(server.el, server.ipfd[j], ae_readable, accepttcphandler,null) == ae_err) { serverpanic( "unrecoverable error creating server.ipfd file event."); } } ...}
可以看到 initserver 中会根据启用的 ip 端口个数,为每个 ip 端口上的网络事件,调用 aecreatefileevent,创建对 ae_readable 事件的监听,并且注册 ae_readable 事件的处理 handler,也就是 accepttcphandler 函数。
然后看下 accepttcphandler 的实现
// https://github.com/redis/redis/blob/5.0/src/networking.c#l734void accepttcphandler(aeeventloop *el, int fd, void *privdata, int mask) { int cport, cfd, max = max_accepts_per_call; char cip[net_ip_str_len]; unused(el); unused(mask); unused(privdata); while(max--) { // 用于accept客户端的连接,其返回值是客户端对应的socket cfd = anettcpaccept(server.neterr, fd, cip, sizeof(cip), &cport); if (cfd == anet_err) { if (errno != ewouldblock) serverlog(ll_warning, "accepting client connection: %s", server.neterr); return; } serverlog(ll_verbose,"accepted %s:%d", cip, cport); // 会调用acceptcommonhandler对连接以及客户端进行初始化 acceptcommonhandler(cfd,0,cip); }}// https://github.com/redis/redis/blob/5.0/src/networking.c#l664 static void acceptcommonhandler(int fd, int flags, char *ip) { client *c; // 分配并初始化新客户端 if ((c = createclient(fd)) == null) { serverlog(ll_warning, "error registering fd event for the new client: %s (fd=%d)", strerror(errno),fd); close(fd); /* may be already closed, just ignore errors */ return; } // 判断当前连接的客户端是否超过最大值,如果超过的话,会拒绝这次连接。否则,更新客户端连接数的计数 if (listlength(server.clients) > server.maxclients) {        char *err = -err max number of clients reached\r\n;        /* that's a best effort error message, don't check write errors */        if (write(c->fd,err,strlen(err)) == -1) {            /* nothing to do, just to avoid the warning... */        }        server.stat_rejected_conn++;        freeclient(c);        return;    }    ...}// 使用多路复用,需要记录每个客户端的状态,client 之前通过链表保存typedef struct client {int fd; // 字段是客户端套接字文件描述符sds querybuf; // 保存客户端发来命令请求的输入缓冲区。以redis通信协议的方式保存int argc; // 当前命令的参数数量robj **argv;  // 当前命令的参数redisdb *db; // 当前选择的数据库指针int flags;list *reply; // 保存命令回复的链表。因为静态缓冲区大小固定,主要保存固定长度的命令回复,当处理一些返回大量回复的命令,则会将命令回复以链表的形式连接起来。// ... many other fields ...char buf[proto_reply_chunk_bytes];} client;client *createclient(int fd) {    client *c = zmalloc(sizeof(client));        // 如果fd为-1,表示创建的是一个无网络连接的伪客户端,用于执行lua脚本的时候。    // 如果fd不等于-1,表示创建一个有网络连接的客户端    if (fd != -1) {        // 设置fd为非阻塞模式        anetnonblock(null,fd);        // 禁止使用 nagle 算法,client向内核递交的每个数据包都会立即发送给server出去,tcp_nodelay        anetenabletcpnodelay(null,fd);        // 如果开启了tcpkeepalive,则设置 so_keepalive        if (server.tcpkeepalive)            anetkeepalive(null,fd,server.tcpkeepalive);         // 创建一个文件事件状态el,且监听读事件,开始接受命令的输入        if (aecreatefileevent(server.el,fd,ae_readable,            readqueryfromclient, c) == ae_err)        {            close(fd);            zfree(c);            return null;        }    }    ...    // 初始化client 中的参数    return c;}
1、accepttcphandler 主要用于处理和客户端连接的建立;
2、其中会调用函数 anettcpaccept 用于 accept 客户端的连接,其返回值是客户端对应的 socket;
3、然后调用 acceptcommonhandler 对连接以及客户端进行初始化;
4、初始化客户端的时候,同时使用 aecreatefileevent 用来注册监听的事件和事件对应的处理函数,将 readqueryfromclient 命令读取处理器绑定到新连接对应的文件描述符上;
5、服务器会监听该文件描述符的读事件,当客户端发送了命令,触发了 ae_readable 事件,那么就会调用回调函数 readqueryfromclient() 来从文件描述符 fd 中读发来的命令,并保存在输入缓冲区中 querybuf。
命令的接收readqueryfromclient 是请求处理的起点,解析并执行客户端的请求命令。
// https://github.com/redis/redis/blob/5.0/src/networking.c#l1522// 读取client的输入缓冲区的内容void readqueryfromclient(aeeventloop *el, int fd, void *privdata, int mask) {    client *c = (client*) privdata;    int nread, readlen;    size_t qblen;    unused(el);    unused(mask);    ...    // 输入缓冲区的长度    qblen = sdslen(c->querybuf);    // 更新缓冲区的峰值    if (c->querybuf_peak < qblen) c->querybuf_peak = qblen;    // 扩展缓冲区的大小    c->querybuf = sdsmakeroomfor(c->querybuf, readlen);    // 调用read从描述符为fd的客户端socket中读取数据    nread = read(fd, c->querybuf+qblen, readlen);    ...    // 处理读取的内容    processinputbufferandreplicate(c);}// https://github.com/redis/redis/blob/5.0/src/networking.c#l1507void processinputbufferandreplicate(client *c) {    // 当前客户端不属于主从复制中的master     // 直接调用 processinputbuffer,对客户端输入缓冲区中的命令和参数进行解析    if (!(c->flags & client_master)) {        processinputbuffer(c);    // 客户端属于主从复制中的master     // 调用processinputbuffer函数,解析客户端命令,      // 调用replicationfeedslavesfrommasterstream 函数,将主节点接收到的命令同步给从节点    } else {        size_t prev_offset = c->reploff;        processinputbuffer(c);        size_t applied = c->reploff - prev_offset;        if (applied) {            replicationfeedslavesfrommasterstream(server.slaves,                    c->pending_querybuf, applied);            sdsrange(c->pending_querybuf,applied,-1);        }    }}// https://github.com/redis/redis/blob/5.0/src/networking.c#l1428void processinputbuffer(client *c) {    server.current_client = c;    /* keep processing while there is something in the input buffer */    // 持续读取缓冲区的内容    while(c->qb_pos < sdslen(c->querybuf)) {        ...        /* multibulk processing could see a <= 0 length. */ // 如果参数为0,则重置client if (c->argc == 0) {            resetclient(c);        } else {            /* only reset the client when the command was executed. */            // 执行命令成功后重置client            if (processcommand(c) == c_ok) {                if (c->flags & client_master && !(c->flags & client_multi)) {                    /* update the applied replication offset of our master. */                    c->reploff = c->read_reploff - sdslen(c->querybuf) + c->qb_pos;                }                // 命令处于阻塞状态中的客户端,不需要进行重置                if (!(c->flags & client_blocked) || c->btype != blocked_module)                    resetclient(c);            }            /* freememoryifneeded may flush slave output buffers. this may             * result into a slave, that may be the active client, to be             * freed. */            if (server.current_client == null) break;        }    }    /* trim to pos */    if (server.current_client != null && c->qb_pos) {        sdsrange(c->querybuf,c->qb_pos,-1);        c->qb_pos = 0;    }    server.current_client = null;}
1、readqueryfromclient(),从文件描述符 fd 中读出数据到输入缓冲区 querybuf 中;
2、使用 processinputbuffer 函数完成对命令的解析,在其中使用 processinlinebuffer 或者 processmultibulkbuffer 根据 redis 协议解析命令;
3、完成对一个命令的解析,就使用 processcommand 对命令就行执行;
4、命令执行完成,最后调用 addreply 函数族的一系列函数将响应数据写入到对应 client 的写出缓冲区:client->buf 或者 client->reply ,client->buf 是首选的写出缓冲区,固定大小 16kb,一般来说可以缓冲足够多的响应数据,但是如果客户端在时间窗口内需要响应的数据非常大,那么则会自动切换到 client->reply 链表上去,使用链表理论上能够保存无限大的数据(受限于机器的物理内存),最后把 client 添加进一个 lifo 队列 clients_pending_write;
命令的回复在 redis 事件驱动框架每次循环进入事件处理函数前,来处理监听到的已触发事件或是到时的时间事件之前,都会调用 beforesleep 函数,进行一些任务处理,这其中就包括了调用 handleclientswithpendingwrites 函数,它会将 redis sever 客户端缓冲区中的数据写回客户端。
// https://github.com/redis/redis/blob/5.0/src/server.c#l1380void beforesleep(struct aeeventloop *eventloop) {    unused(eventloop);    ...    // 将 redis sever 客户端缓冲区中的数据写回客户端    handleclientswithpendingwrites();    ...}// https://github.com/redis/redis/blob/5.0/src/networking.c#l1082int handleclientswithpendingwrites(void) {    listiter li;    listnode *ln;    // 遍历 clients_pending_write 队列,调用 writetoclient 把 client 的写出缓冲区里的数据回写到客户端    int processed = listlength(server.clients_pending_write);    listrewind(server.clients_pending_write,&li);    while((ln = listnext(&li))) {        client *c = listnodevalue(ln);        c->flags &= ~client_pending_write;        listdelnode(server.clients_pending_write,ln);        ...        // 调用 writetoclient 函数,将客户端输出缓冲区中的数据写回        if (writetoclient(c->fd,c,0) == c_err) continue;         // 如果输出缓冲区的数据还没有写完,此时,handleclientswithpendingwrites 函数就        // 会调用 aecreatefileevent 函数,创建可写事件,并设置回调函数 sendreplytoclien        if (clienthaspendingreplies(c)) {            int ae_flags = ae_writable;            if (server.aof_state == aof_on &&                server.aof_fsync == aof_fsync_always)            {                ae_flags |= ae_barrier;            }            // 将文件描述符fd和ae_writable事件关联起来,当客户端可写时,就会触发事件,调用sendreplytoclient()函数,执行写事件            if (aecreatefileevent(server.el, c->fd, ae_flags,                sendreplytoclient, c) == ae_err)            {                    freeclientasync(c);            }        }    }    return processed;}// https://github.com/redis/redis/blob/5.0/src/networking.c#l1072// 写事件处理程序,只是发送回复给clientvoid sendreplytoclient(aeeventloop *el, int fd, void *privdata, int mask) {    unused(el);    unused(mask);    writetoclient(fd,privdata,1);}// https://github.com/redis/redis/blob/5.0/src/networking.c#l979// 将输出缓冲区的数据写给client,如果client被释放则返回c_err,没被释放则返回c_okint writetoclient(int fd, client *c, int handler_installed) {    ssize_t nwritten = 0, totwritten = 0;    size_t objlen;    clientreplyblock *o;        // 如果指定的client的回复缓冲区中还有数据,则返回真,表示可以写socket    while(clienthaspendingreplies(c)) {        // 固定缓冲区发送未完成        if (c->bufpos > 0) {            // 将缓冲区的数据写到fd中            nwritten = write(fd,c->buf+c->sentlen,c->bufpos-c->sentlen);            ...            // 如果发送的数据等于buf的偏移量,表示发送完成            if ((int)c->sentlen == c->bufpos) {                c->bufpos = 0;                c->sentlen = 0;            }        // 固定缓冲区发送完成,发送回复链表的内容        } else {            // 回复链表的第一条回复对象,和对象值的长度和所占的内存            o = listnodevalue(listfirst(c->reply));            objlen = o->used;            if (objlen == 0) {                c->reply_bytes -= o->size;                listdelnode(c->reply,listfirst(c->reply));                continue;            }            // 将当前节点的值写到fd中            nwritten = write(fd, o->buf + c->sentlen, objlen - c->sentlen);            if (nwritten <= 0) break; c->sentlen += nwritten;            totwritten += nwritten;            ...        }        ...    }    ...    // 如果指定的client的回复缓冲区中已经没有数据,发送完成    if (!clienthaspendingreplies(c)) {        c->sentlen = 0;        // 删除当前client的可读事件的监听        if (handler_installed) aedeletefileevent(server.el,c->fd,ae_writable);        /* close connection after entire reply has been sent. */        // 如果指定了写入按成之后立即关闭的标志,则释放client        if (c->flags & client_close_after_reply) {            freeclient(c);            return c_err;        }    }    return c_ok;}
1、beforesleep 函数调用的 handleclientswithpendingwrites 函数,会遍历 clients_pending_write(待写回数据的客户端) 队列,调用 writetoclient 把 client 的写出缓冲区里的数据回写到客户端,然后调用 writetoclient 函数,将客户端输出缓冲区中的数据发送给客户端;
2、如果输出缓冲区的数据还没有写完,此时,handleclientswithpendingwrites 函数就会调用 aecreatefileevent 函数,注册 sendreplytoclient 到该连接的写就绪事件,等待将后续将数据写回给客户端。
上面的执行流程总结下来就是
1、redis server 启动后,主线程会启动一个时间循环(event loop),持续监听事件;
2、client 到 server 的新连接,会调用 accepttcphandler 函数,之后会注册读事件 readqueryfromclient 函数,client 发给 server 的数据,都会在这个函数处理,这个函数会解析 client 的数据,找到对应的 cmd 函数执行;
3、cmd 逻辑执行完成后,server 需要写回数据给 client,调用 addreply 函数族的一系列函数将响应数据写入到对应 client 的写出缓冲区:client->buf 或者 client->reply ,client->buf 是首选的写出缓冲区,固定大小 16kb,一般来说可以缓冲足够多的响应数据,但是如果客户端在时间窗口内需要响应的数据非常大,那么则会自动切换到 client->reply 链表上去,使用链表理论上能够保存无限大的数据(受限于机器的物理内存),最后把 client 添加进一个 lifo 队列 clients_pending_write;
4、在 redis 事件驱动框架每次循环进入事件处理函数前,来处理监听到的已触发事件或是到时的时间事件之前,都会调用 beforesleep 函数,进行一些任务处理,这其中就包括了调用 handleclientswithpendingwrites 函数,它会将 redis sever 客户端缓冲区中的数据写回客户端;
beforesleep 函数调用的 handleclientswithpendingwrites 函数,会遍历 clients_pending_write(待写回数据的客户端) 队列,调用 writetoclient 把 client 的写出缓冲区里的数据回写到客户端,然后调用 writetoclient 函数,将客户端输出缓冲区中的数据发送给客户端;如果输出缓冲区的数据还没有写完,此时,handleclientswithpendingwrites 函数就会调用 aecreatefileevent 函数,注册 sendreplytoclient 到该连接的写就绪事件,等待将后续将数据写回给客户端。redis 多io线程在 redis6.0 的版本中,引入了多线程来处理 io 任务,多线程的引入,充分利用了当前服务器多核特性,使用多核运行多线程,让多线程帮助加速数据读取、命令解析以及数据写回的速度,提升 redis 整体性能。
redis6.0 之前的版本用的是单线程 reactor 模式,所有的操作都在一个线程中完成,6.0 之后的版本使用了主从 reactor 模式。
由一个 mainreactor 线程接收连接,然后发送给多个 subreactor 线程处理,subreactor 负责处理具体的业务。
来看下 redis 多io线程的具体实现过程
多 io 线程的初始化使用 initthreadedio 函数来初始化多 io 线程。
// https://github.com/redis/redis/blob/6.2/src/networking.c#l3573void initthreadedio(void) {    server.io_threads_active = 0; /* we start with threads not active. */    /* don't spawn any thread if the user selected a single thread:     * we'll handle i/o directly from the main thread. */     // 如果用户只配置了一个 i/o 线程,不需要创建新线程了,直接在主线程中处理    if (server.io_threads_num == 1) return;    if (server.io_threads_num > io_threads_max_num) {        serverlog(ll_warning,fatal: too many i/o threads configured.                              the maximum number is %d., io_threads_max_num);        exit(1);    }    /* spawn and initialize the i/o threads. */    // 初始化线程    for (int i = 0; i < server.io_threads_num; i++) { /* things we do for all the threads including the main thread. */ io_threads_list[i] = listcreate(); // 编号为0是主线程 if (i == 0) continue; /* thread 0 is the main thread. */ /* things we do only for the additional threads. */ pthread_t tid; // 初始化io_threads_mutex数组 pthread_mutex_init(&io_threads_mutex[i],null); // 初始化io_threads_pending数组 setiopendingcount(i, 0); // 主线程在启动 i/o 线程的时候会默认先锁住它,直到有 i/o 任务才唤醒它。 pthread_mutex_lock(&io_threads_mutex[i]); /* thread will be stopped. */ // 调用pthread_create函数创建io线程,线程运行函数为iothreadmain if (pthread_create(&tid,null,iothreadmain,(void*)(long)i) != 0) { serverlog(ll_warning,"fatal: can't initialize io thread."); exit(1); } io_threads[i] = tid; }}
可以看到在 initthreadedio 中完成了对下面四个数组的初始化工作
io_threads_list 数组:保存了每个 io 线程要处理的客户端,将数组每个元素初始化为一个 list 类型的列表;
io_threads_pending 数组:保存等待每个 io 线程处理的客户端个数;
io_threads_mutex 数组:保存线程互斥锁;
io_threads 数组:保存每个 io 线程的描述符。
命令的接收redis server 在和一个客户端建立连接后,就开始了监听客户端的可读事件,处理可读事件的回调函数就是 readqueryfromclient
// https://github.com/redis/redis/blob/6.2/src/networking.c#l2219void readqueryfromclient(connection *conn) { client *c = conngetprivatedata(conn); int nread, readlen; size_t qblen; /* check if we want to read from the client later when exiting from * the event loop. this is the case if threaded i/o is enabled. */ // 判断是否从客户端延迟读取数据 if (postponeclientread(c)) return; ...}// https://github.com/redis/redis/blob/6.2/src/networking.c#l3746int postponeclientread(client *c) { // 当多线程 i/o 模式开启、主线程没有在处理阻塞任务时,将 client 加入异步队列。 if (server.io_threads_active && server.io_threads_do_reads && !processingeventswhileblocked && !(c->flags & (client_master|client_slave|client_pending_read|client_blocked)))     {        // 给客户端的flag添加client_pending_read标记,表示推迟该客户端的读操作        c->flags |= client_pending_read;        // 将可获得加入clients_pending_write列表        listaddnodehead(server.clients_pending_read,c);        return 1;    } else {        return 0;    }}
使用 clients_pending_read 保存了需要进行延迟读操作的客户端之后,这些客户端又是如何分配给多 io 线程执行的呢?
handleclientswithpendingwritesusingthreads 函数:该函数主要负责将 clients_pending_write 列表中的客户端分配给 io 线程进行处理。
看下如何实现
// https://github.com/redis/redis/blob/6.2/src/networking.c#l3766int handleclientswithpendingreadsusingthreads(void) {    // 当多线程 i/o 模式开启,才能执行下面的流程    if (!server.io_threads_active || !server.io_threads_do_reads) return 0;    int processed = listlength(server.clients_pending_read);    if (processed == 0) return 0;    // 遍历待读取的 client 队列 clients_pending_read,    // 根据io线程的数量,让clients_pending_read中客户端数量对io线程进行取模运算    // 取模的结果就是客户端分配给对应io线程的编号    listiter li;    listnode *ln;    listrewind(server.clients_pending_read,&li);    int item_id = 0;    while((ln = listnext(&li))) {        client *c = listnodevalue(ln);        int target_id = item_id % server.io_threads_num;        listaddnodetail(io_threads_list[target_id],c);        item_id++;    }    // 设置当前 i/o 操作为读取操作,给每个 i/o 线程的计数器设置分配的任务数量,    // 让 i/o 线程可以开始工作:只读取和解析命令,不执行    io_threads_op = io_threads_op_read;    for (int j = 1; j < server.io_threads_num; j++) { int count = listlength(io_threads_list[j]); setiopendingcount(j, count); } // 主线程自己也会去执行读取客户端请求命令的任务,以达到最大限度利用 cpu。 listrewind(io_threads_list[0],&li); while((ln = listnext(&li))) { client *c = listnodevalue(ln); readqueryfromclient(c->conn);    }    listempty(io_threads_list[0]);    // 忙轮询,等待所有 io 线程完成待读客户端的处理    while(1) {        unsigned long pending = 0;        for (int j = 1; j < server.io_threads_num; j++) pending += getiopendingcount(j); if (pending == 0) break; } // 遍历待读取的 client 队列,清除 client_pending_read标记, // 然后解析并执行所有 client 的命令。 while(listlength(server.clients_pending_read)) { ln = listfirst(server.clients_pending_read); client *c = listnodevalue(ln); c->flags &= ~client_pending_read;        listdelnode(server.clients_pending_read,ln);        serverassert(!(c->flags & client_blocked));        // client 的第一条命令已经被解析好了,直接尝试执行。        if (processpendingcommandsandresetclient(c) == c_err) {            /* if the client is no longer valid, we avoid             * processing the client later. so we just go             * to the next. */            continue;        }        // 解析并执行 client 命令        processinputbuffer(c);        // 命令执行完成之后,如果 client 中有响应数据需要回写到客户端,则将 client 加入到待写出队列 clients_pending_write        if (!(c->flags & client_pending_write) && clienthaspendingreplies(c))            clientinstallwritehandler(c);    }    /* update processed count on server */    server.stat_io_reads_processed += processed;    return processed;}
1、当客户端发送命令请求之后,会触发 redis 主线程的事件循环,命令处理器 readqueryfromclient 被回调,多线程模式下,则会把 client 加入到 clients_pending_read 任务队列中去,后面主线程再分配到 i/o 线程去读取客户端请求命令;
2、主线程会根据 clients_pending_read 中客户端数量对io线程进行取模运算,取模的结果就是客户端分配给对应io线程的编号;
3、忙轮询,等待所有的线程完成读取客户端命令的操作,这一步用到了多线程的请求;
4、遍历 clients_pending_read,执行所有 client 的命令,这里就是在主线程中执行的,命令的执行是单线程的操作。
命令的回复完成命令的读取、解析以及执行之后,客户端命令的响应数据已经存入 client->buf 或者 client->reply 中。
主循环在捕获 io 事件的时候,beforesleep 函数会被调用,进而调用 handleclientswithpendingwritesusingthreads ,写回响应数据给客户端。
// https://github.com/redis/redis/blob/6.2/src/networking.c#l3662int handleclientswithpendingwritesusingthreads(void) {    int processed = listlength(server.clients_pending_write);    if (processed == 0) return 0; /* return asap if there are no clients. */    // 如果用户设置的 i/o 线程数等于 1 或者当前 clients_pending_write 队列中待写出的 client    // 数量不足 i/o 线程数的两倍,则不用多线程的逻辑,让所有 i/o 线程进入休眠,    // 直接在主线程把所有 client 的相应数据回写到客户端。    if (server.io_threads_num == 1 || stopthreadedioifneeded()) {        return handleclientswithpendingwrites();    }    // 唤醒正在休眠的 i/o 线程(如果有的话)。    if (!server.io_threads_active) startthreadedio();    /* distribute the clients across n different lists. */    // 和上面的handleclientswithpendingreadsusingthreads中的操作一样分配客户端给io线程    listiter li;    listnode *ln;    listrewind(server.clients_pending_write,&li);    int item_id = 0;    while((ln = listnext(&li))) {        client *c = listnodevalue(ln);        c->flags &= ~client_pending_write;        /* remove clients from the list of pending writes since         * they are going to be closed asap. */        if (c->flags & client_close_asap) {            listdelnode(server.clients_pending_write, ln);            continue;        }        int target_id = item_id % server.io_threads_num;        listaddnodetail(io_threads_list[target_id],c);        item_id++;    }    // 设置当前 i/o 操作为写出操作,给每个 i/o 线程的计数器设置分配的任务数量,    // 让 i/o 线程可以开始工作,把写出缓冲区(client->buf 或 c->reply)中的响应数据回写到客户端。    // 可以看到写回操作也是多线程执行的    io_threads_op = io_threads_op_write;    for (int j = 1; j < server.io_threads_num; j++) { int count = listlength(io_threads_list[j]); setiopendingcount(j, count); } // 主线程自己也会去执行读取客户端请求命令的任务,以达到最大限度利用 cpu。 listrewind(io_threads_list[0],&li); while((ln = listnext(&li))) { client *c = listnodevalue(ln); writetoclient(c,0); } listempty(io_threads_list[0]); /* wait for all the other threads to end their work. */ // 等待所有的线程完成对应的工作 while(1) { unsigned long pending = 0; for (int j = 1; j < server.io_threads_num; j++) pending += getiopendingcount(j); if (pending == 0) break; } // 最后再遍历一次 clients_pending_write 队列,检查是否还有 client 的写出缓冲区中有残留数据, // 如果有,那就为 client 注册一个命令回复器 sendreplytoclient,等待客户端写就绪再继续把数据回写。 listrewind(server.clients_pending_write,&li); while((ln = listnext(&li))) { client *c = listnodevalue(ln); // 检查 client 的写出缓冲区是否还有遗留数据。 if (clienthaspendingreplies(c) && connsetwritehandler(c->conn, sendreplytoclient) == ae_err)        {            freeclientasync(c);        }    }    listempty(server.clients_pending_write);    /* update processed count on server */    server.stat_io_writes_processed += processed;    return processed;}
1、也是会将 client 分配给所有的 io 线程;
2、忙轮询,等待所有的线程将缓存中的数据写回给客户端,这里写回操作使用的多线程;
3、最后再遍历 clients_pending_write,为那些还残留有响应数据的 client 注册命令回复处理器 sendreplytoclient,等待客户端可写之后在事件循环中继续回写残余的响应数据。
通过上面的分析可以得出结论,redis 多io线程中多线程的应用
1、解析客户端的命令的时候用到了多线程,但是对于客户端命令的执行,使用的还是单线程;
2、给客户端回复数据的时候,使用到了多线程。
来总结下 redis 中多线程的执行过程
1、redis server 启动后,主线程会启动一个时间循环(event loop),持续监听事件;
2、client 到 server 的新连接,会调用 accepttcphandler 函数,之后会注册读事件 readqueryfromclient 函数,client 发给 server 的数据,都会在这个函数处理;
3、客户端发送给服务端的数据,不会类似 6.0 之前的版本使用 socket 直接去读,而是会将 client 放入到 clients_pending_read 中,里面保存了需要进行延迟读操作的客户端;
4、处理 clients_pending_read 的函数 handleclientswithpendingreadsusingthreads,在每次事件循环的时候都会调用;
1、主线程会根据 clients_pending_read 中客户端数量对io线程进行取模运算,取模的结果就是客户端分配给对应io线程的编号;2、忙轮询,等待所有的线程完成读取客户端命令的操作,这一步用到了多线程的请求;3、遍历 clients_pending_read,执行所有 client 的命令,这里就是在主线程中执行的,命令的执行是单线程的操作。5、命令执行完成以后,回复的内容还是会被写入到 client 的缓存区中,这些 client 和6.0之前的版本处理方式一样,也是会被放入到 clients_pending_write(待写回数据的客户端);
6、6.0 对于clients_pending_write 的处理使用到了多线程;
1、也是会将 client 分配给所有的 io 线程;2、忙轮询,等待所有的线程将缓存中的数据写回给客户端,这里写回操作使用的多线程;3、最后再遍历 clients_pending_write,为那些还残留有响应数据的 client 注册命令回复处理器 sendreplytoclient,等待客户端可写之后在事件循环中继续回写残余的响应数据。原子性的单命令通过上面的分析,我们知道,redis 的主线程是单线程执行的,所有 redis 中的单命令,都是原子性的。
所以对于一些场景的操作尽量去使用 redis 中单命令去完成,就能保证命令执行的原子性。
比如对于上面的读取-修改-写回操作可以使用 redis 中的原子计数器, incrby(自增)、decrbr(自减)、incr(加1) 和 decr(减1) 等命令。
这些命令可以直接帮助我们处理并发控制
127.0.0.1:6379> incr test-1(integer) 1127.0.0.1:6379> incr test-1(integer) 2127.0.0.1:6379> incr test-1(integer) 3
分析下源码,看看这个命令是如何实现的
// https://github.com/redis/redis/blob/6.2/src/t_string.c#l617void incrcommand(client *c) {    incrdecrcommand(c,1);}void decrcommand(client *c) {    incrdecrcommand(c,-1);}void incrbycommand(client *c) {    long long incr;    if (getlonglongfromobjectorreply(c, c->argv[2], &incr, null) != c_ok) return;    incrdecrcommand(c,incr);}void decrbycommand(client *c) {    long long incr;    if (getlonglongfromobjectorreply(c, c->argv[2], &incr, null) != c_ok) return;    incrdecrcommand(c,-incr);}
可以看到 incrby(自增)、decrbr(自减)、incr(加1) 和 decr(减1)这几个命令最终都是调用的 incrdecrcommand
// https://github.com/redis/redis/blob/6.2/src/t_string.c#l579  void incrdecrcommand(client *c, long long incr) {    long long value, oldvalue;    robj *o, *new;    // 查找有没有对应的键值    o = lookupkeywrite(c->db,c->argv[1]);    // 判断类型,如果value对象不是字符串类型,直接返回    if (checktype(c,o,obj_string)) return;    // 将字符串类型的value转换为longlong类型保存在value中    if (getlonglongfromobjectorreply(c,o,&value,null) != c_ok) return;    // 备份旧的value    oldvalue = value;    // 判断 incr 的值是否超过longlong类型所能表示的范围    // 长度的范围,十进制 64 位有符号整数    if ((incr < 0 && oldvalue < 0 && incr < (llong_min-oldvalue)) || (incr > 0 && oldvalue > 0 && incr > (llong_max-oldvalue))) {        addreplyerror(c,increment or decrement would overflow);        return;    }    // 计算新的 value值    value += incr;    if (o && o->refcount == 1 && o->encoding == obj_encoding_int &&        (value < 0 || value >= obj_shared_integers) &&        value >= long_min && value <= long_max) { new = o; o->ptr = (void*)((long)value);    } else {        new = createstringobjectfromlonglongforvalue(value);        // 如果之前的 value 对象存在        if (o) {            // 重写为 new 的值              dboverwrite(c->db,c->argv[1],new);        } else {            // 如果之前没有对应的 value,新设置 value 的值            dbadd(c->db,c->argv[1],new);        }    }    // 进行通知    signalmodifiedkey(c,c->db,c->argv[1]);    notifykeyspaceevent(notify_string,incrby,c->argv[1],c->db->id);    server.dirty++;    addreply(c,shared.colon);    addreply(c,new);    addreply(c,shared.crlf);}
总结1、redis 中的命令执行都是单线程的,所以单命令的执行都是原子性的;
2、虽然 redis6.0 版本引入了多线程,但是仅是在接收客户端的命令和回复客户端的数据用到了多线程,实际命令的执行还是单线程在处理;
推荐学习:redis视频教程
以上就是详细解析redis中命令的原子性的详细内容。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product