高级IO/多路转接-select/poll(1)

概念背景

  IO的本质就是输入输出

  刚开始学网络的时候,我们简单的写过一些网络服务,其中用到了read,write这样的接口,当时我们用的就是基础IO,高级IO主要就是效率问题。

  我们在应用层调用read&&write的时候,本质就是把数据由用户层写给OS,所以这些函数本质就是拷贝函数。

  在应用层,尤其是在网络通信的时候,我们在IO的时候,其实大部分的时间都是在做 “等待” 的操作,只有数据来了,才进行拷贝,所以IO = 等待 + 拷贝。但是大部分时间都花在了 等 上面,所以IO本质就是 等 + 拷贝。

  因此要进行拷贝,我们必须先判断条件是否成立,在网络IO这里,我们叫做读写事件是否就绪。

  在了解了IO的本质之后,我们就理解什么是高效的IO了,高效的IO在IO过程中,等所占的比重越小,IO的效率越高。 所以几乎所有提高IO效率的策略都是为了降低等待的时间。

  我们之前写过简单的线程池,为什么线程池效率高呢?很大的原因都是线程们的等待是并行的,减少了等待所占的时间比重,所以效率高。

五种IO模型

介绍

 1.阻塞IO:也是最常见的IO模型,在内核数据准备好之前,系统调用一直会阻塞式的等待。所有的套接字,默认都是阻塞方式。

2.非阻塞IO:如果内核数据尚未准备好,那么系统调用会直接返回,返回EWOULDBLOCK错误码。非阻塞IO往往需要程序猿通过轮询的方式不断尝试读写文件描述符,对CPU来说是比较大的浪费。 

3.信号驱动IO:内核数据准备好的时候,使用SIGIO的信号通知应用程序进行IO操作。

4.多路转接/复用IO:以阻塞等待的方式,同时等待多个文件描述符的就绪状态。

以上的IO都是同步IO。

5.异步IO:由内核在数据拷贝完成时,通知应用程序。(注意不是数据准备好,而是拷贝完成)可以理解为用户给OS一个缓冲区,OS一有数据就自动将数据拷贝到缓冲区里,等缓冲区满了就通知应用程序。也就是进程并不参与IO具体的过程。

阻塞IOvs非阻塞IO

因为IO = 等 + 拷贝,所以阻塞IO和非阻塞IO的IO效率是一样的,但是因为非阻塞IO可以在等待失败返回后做一下其他事情,所以效率会比阻塞IO的高一些。因此阻塞IO和非阻塞IO的区别只是等的方法不同而已。

同步IOvs异步IO

是否是同步IO,就看特定的某个进程是否参与了IO,这个参与可以是参与了等,也可以是参与了拷贝。只要参与了就是同步IO。

而异步IO的本质是不参与IO,它只是发起IO,最后拿结果就可以了。

另外,同步IO中的同步与线程同步里的同步是两个完全不同的东西。同步IO指的是IO层面上的概念,而线程同步的同步是指线程之间谁先运行,谁要等待的问题。

这些IO模型里面,效率最高的就是多路复用IO。异步IO往往会带来IO混乱。

非阻塞IO/fcntl 

先看看recv,read也可以

我们看到recv前三个参数跟read一模一样,但是多了个flags ,看看read的

以前flags我们默认都是设置为0,代表是阻塞式读取,我们可以进行设置flags来设置非阻塞。

除此之外,我们还可以用fcntl 来直接对文件描述符进行设置

其中cmd可以传入以下: 

复制一个现有的描述符(cmd=F_DUPFD).
获得/设置文件描述符标记(cmd=F_GETFD或F_SETFD).
获得/设置文件状态标记(cmd=F_GETFL或F_SETFL).
获得/设置异步I/O所有权(cmd=F_GETOWN或F_SETOWN).
获得/设置记录锁(cmd=F_GETLK,F_SETLK或F_SETLKW)
只要文件描述符是非阻塞的,那么将来通过这个文件描述符来调用read/recv/write/send这样的接口就都是非阻塞的。
比如我们可以设置一个函数,它可以将传入的文件描述符设置成非阻塞的
void SetNoBlock(int fd) 
{ 
     int fl = fcntl(fd, F_GETFL); 
     if (fl < 0) 
     { 
         perror("fcntl");
         return; 
     }
     fcntl(fd, F_SETFL, fl | O_NONBLOCK); 
}

如果我们设置成为非阻塞,如果底层fd数据没有就绪,recv/read/write/send就会以出错的形式返回。所以,如果如果有错误形式返回了,它有两种情况:

1.真的出错了。

2.底层没有就绪。

可以通过errnor进行区分。底层没有就绪的错误码是11(EWOULDBLOCK)。

例,当返回值小于0时

 多路转接之select

  多路转接也是五种IO模型中的一种。

以前我们学到的所有接口都是既做等又做拷贝的,所以效率就很难提高。

 而select只可以做等的工作,函数原型

int select(int nfds, fd_set *readfds, fd_set *writefds,
 fd_set *exceptfds, struct timeval *timeout);

新标准只要包一个头文件就可以了,就是

#include <sys/select.h>

select只负责等,并且可以一次等待多个fd。 

程序会在select这里等待,直到监视的文件描述符有一个或多个发生了状态的改变。

参数解释:

nfds就是需要监视的最大文件描述符 + 1。

后面的readfds,writefds,exceptfds其实本质都是位图,所对应的就是需要检测的文件描述符的可读/可写/是否出错的集合。虽然fd_set也是一个结构体,但是里面是位图。它们都是输入输出型参数,我们也可以同时传入多个fd_set表示我们关心多个状态的就绪。

对于输入输出理解:

1.输入时:是用户告诉内核,要内核关心哪些fd,哪些fd就绪了,要及时告诉用户。

2.输出时:是内核告诉用户,哪些fd就绪了,要用户赶快处理。

因为是位图结构的,那么:
比特位的位置代表的是文件描述符的编号。

比特位的内容,代表是否需要内核关心。

所以fd_set本质是一张位图,它是让用户与内核之前传递fd是否就绪的信息的。

所以我们在使用select的时候,会先有大量的位图操作。

位图的操作接口

void FD_CLR(int fd, fd_set *set); // 用来清除描述词组set中相关fd 的位
 int FD_ISSET(int fd, fd_set *set); // 用来测试描述词组set中相关fd 的位是否为真
 void FD_SET(int fd, fd_set *set); // 用来设置描述词组set中相关fd的位
 void FD_ZERO(fd_set *set); // 用来清除描述词组set的全部位

timval是一个结构体,用来设置select()的等待时间。

它的定义如下

struct timeval
{
__time_t tv_sec; /* Seconds. */
__suseconds_t tv_usec; /* Microseconds. */
};

这个tv_sec也就是秒,tv_usec就是微秒。

我们在设置 timeout的时候,一般是 timeout = {5,0},其中这个5代表的含义就是5秒timeout一次,如果是{0.0},那么就是立马返回,没有阻塞。或者我们也可以直接将timeout设置成为NULL,表示阻塞等待。这个timeval也是输入输出型参数。

即便还在等待时间里,只要有fd就绪了,就立马返回,假设是在2秒的时候就绪了,然后返回,那么timeout里面的值就变成了{5 - 2 = 3,0}也就是{3,0},就是剩余的返回时间。如果一个fd都没有就绪,那么会在timeout被减到0的时候自动返回一次,那么此时的timeout已经是{0,0}了,也就是非阻塞了。因此timeout可能要进行周期的重复设置。

关于select的返回值:

1.n > 0:有n个fd就绪了。

2.n == 0:超时了,没有出错,但是也没有fd就绪。

3.n < 0:出错了。

所以现在我们写网络服务的时候,就不能直接accept了,因此accept也是检测并获取listensock上面的事件,期间也是在阻塞式等待,新连接到来,等价于读事件就绪了。

所以我们可以先用select进行等待,如果select告诉用户就绪了,那么接下来的一次读取fd的时候,就不会被阻塞了,因为已经不需要等了,只要读了。

如果事件就绪了,上层不处理,那么select会一直通知用户。

简单实现基于select的多路转接的echo服务器:

SelectServer.hpp

#pragma once

#include <iostream>
#include <sys/select.h>
#include <sys/time.h>
#include "Socket.hpp"
#include "Log.hpp"

using namespace std;

static const int defaultport = 8080;
// *8是因为一字节有8个比特位,一个比特位就可以表示一个fd
static const int fd_num_max = (sizeof(fd_set) * 8);  
int defaultfd = -1;

class SelectServer
{
public:
    SelectServer(uint16_t port = defaultport)
        :_port(port)
    {
        for(int i = 0; i < fd_num_max; ++i)
        {
            fd_array[i] = defaultfd;
        }
    }

    bool Init()
    {
        _listensock.Socket();
        _listensock.Bind(_port);
        _listensock.Listen();

        return true;
    }

    void Accepter()
    {
        // 说明连接事件就绪了
        std::string clientip;
        uint16_t clientport = 0;;
        int sock = _listensock.Accept(&clientip,&clientport);  // 这里已经不会再阻塞了,select已经帮我们等完了
        if(sock < 0) return;
        lg(Info,"accept success,%s : %d,sock fd : %d",clientip.c_str(),clientport,sock);
        
        //这里下标是从1开始的,因为0号下标是listensockfd的。
        int pos = 1;
        for(;pos < fd_num_max; ++pos)  // 这里是第二个循环,是为了将新的fd插入到用户维护的数组中
        {
            if(fd_array[pos] != defaultfd)
                continue;
            else 
                break;
        }

        if(pos == fd_num_max)
        {
            lg(Warning,"server is full,close %d now!",sock);
            close(sock);
        }
        else 
        {
            fd_array[pos] = sock;
            PrintFd();
        }
    }

    void Recver(int fd,int pos)
    {
        // 这里只是一个demo,我们并没有处理都上来的数据是否是完整的报文
        char buffer[1024];
        ssize_t n = read(fd,&buffer,sizeof(buffer) - 1); //数据不一定完整 ,但是这里不会阻塞了
        if(n > 0)
        {
            buffer[n] = 0;
            cout << "get a messge : " << buffer << endl;
        }
        else if(n == 0)  // 对方关闭连接了
        {
            lg(Info,"client quit , me too, close fd is : %d",fd);
            close(fd);
            fd_array[pos] = defaultfd; // 这里本质是从select中移除
        }
        else 
        {
            // 读出错了也要关闭
            lg(Warning,"recv error : fd is : %d",fd);
            close(fd);
            fd_array[pos] = defaultfd; // 本质还是从select中移除
        }
    }

    void Dispatcher(fd_set& rfds)  // 任务派发器
    {
        for(int i = 0; i < fd_num_max; ++i)  // 这里是第三个循环了
        {
            int fd = fd_array[i];
            if(fd == defaultfd)
                continue;
            
            if(FD_ISSET(fd,&rfds))
            {
                if(fd == _listensock.Fd()) // 说明是新链接就绪了
                {
                    Accepter(); // 连接管理器
                }
                else // 说明某个链接的读事件就绪了
                {
                    Recver(fd,i);
                }
            }
        }
    }

    void Start()
    {
        int listensock = _listensock.Fd();
        fd_array[0] = listensock;
        while(true)
        {
            fd_set rfds;
            FD_ZERO(&rfds);

            int maxfd = fd_array[0];
            for(int i = 0; i < fd_num_max; ++i) // 第一次循环
            {
                if(fd_array[i] == defaultfd)
                    continue;
                FD_SET(fd_array[i],&rfds);
                if(maxfd < fd_array[i])
                {
                    maxfd = fd_array[i];
                    lg(Info,"maxfd updata,maxfd is : %d",maxfd);
                }
            }

            // 这里不能直接accept了,read也是,因为是单进程的,如果直接用
            // 这里直接就因为一个链接可能就阻塞了

            struct timeval timeout = {1,0}; // 因为是输入输出型参数,所以要周期的重复设置
            int n = select(maxfd + 1,&rfds,nullptr,nullptr,&timeout);
            if(n > 0)
            {
                // 说明有事件就绪了
                cout << "get a new link" << endl;
                // 我们也不知道是一个就绪了还是多个就绪了
                // 而且这里也不知道是新链接来了,还是读事件就绪了
                Dispatcher(rfds); 
            }
            else if(n == 0)
            {
                cout << "time out ..." << endl;
            }
            else if(n == -1)
            {
                cout << "select error!!!" << endl;
            }
        }
    }

    void PrintFd()
    {
        cout << "online fd list : ";
        for(int i = 0; i < fd_num_max; ++i)
        {
            if(fd_array[i] == defaultfd)
                continue;
            cout << fd_array[i] << " ";
        }
        cout << endl;
    }

    ~SelectServer()
    {
        _listensock.Close();
    }
private:
    Sock _listensock;
    uint16_t _port;
    int fd_array[fd_num_max];  // 这是用户维护的数组。
};

select那里,rfds也是输入输出型参数,它的输出就是告诉我们哪些fd就绪了,将位图对应的位置修改成1,没有就绪的修改成0。 比如一开始传入的是1111 1111,假如只有一个fd就绪了,那么它返回的就是0000 0001,可见,其他的只是会被置为0的,如果我们还要对其他的fd继续关心,就需要我们在用户层维护一个数组,表示我们要关心哪些fd。

因为这里我们写的比较简单,只关心读事件,所以也只维护了一个读事件的数组,将来如果要关心写,或者异常事件,那么还需要相应的增加数组。

我们每次在select前,都要重新对位图进行设置,这个时候就要用循环来遍历我们维护的数组,将它设置进位图当中,另外select传入的fd,表示的是我们需要关心的最大fd + 1,那么也就是需要我们每次循环都要知道当前的maxfd是多少,所以在每次在select前,还要顺便在这个循环中更新出maxfd。

另外,fd_set位图的比特位最多是1024个,也就是最多能表示1024个fd。

timeval参数那里,我们也可以传入nullptr,这样就是阻塞式等待了。

在任务派发器那里,因为就绪的不一定只有1个fd,因此我们又加上了一个循环,以便将这次就绪的fd全部处理。

Main.cc

#include <memory>
#include "SelectServer.hpp"

int main()
{
    std::unique_ptr<SelectServer> svr(new SelectServer());
    svr->Init();
    svr->Start();
    return 0;
}

之间一直使用的Socket.hpp简单加入了setsockopt,顺便复习一下

Socket.hpp

#pragma once

#include <iostream>
#include <string>
#include <unistd.h>
#include <cstring>
#include <sys/types.h>
#include <sys/stat.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#include "Log.hpp"

enum
{
    SocketErr = 2,
    BindErr,
    ListenErr
};

const int backlog = 10;

class Sock
{
public:
    Sock()
    {}
    ~Sock()
    {}

public:
    void Socket()
    {
        sockfd_ = socket(AF_INET,SOCK_STREAM,0);
        if(sockfd_ < 0)
        {
            lg(Fatal,"socker error,%s: %d",strerror(errno),errno);
            exit(SocketErr);
        }

        int opt = 1;
        setsockopt(sockfd_,SOL_SOCKET,SO_REUSEADDR | SO_REUSEPORT,&opt,sizeof(opt)); // 防止服务器挂掉后不能立即重启。
    }

    void Bind(uint16_t port)
    {
        struct sockaddr_in local;
        memset(&local,0,sizeof(local));
        local.sin_family = AF_INET;
        local.sin_port = htons(port);
        local.sin_addr.s_addr = INADDR_ANY;

        if(bind(sockfd_,(struct sockaddr*)&local,sizeof(local)) < 0)
        {
            lg(Fatal,"bind error, %s: %d",strerror(errno),errno);
            exit(BindErr);
        }
    }

    void Listen()
    {
        if(listen(sockfd_,backlog) < 0)
        {
            lg(Fatal,"listen error,%s: %d",strerror(errno),errno);
            exit(ListenErr);
        }
    }

    int Accept(std::string *clientip,uint16_t *clientport)  // 两个输出型参数
    {
        struct sockaddr_in peer;
        socklen_t len = sizeof(peer);
        int newfd = accept(sockfd_,(struct sockaddr*)&peer,&len);
        if(newfd < 0)
        {
            lg(Warning,"accept error,%s: %d",strerror(errno),errno);
            return -1;
        }
        // 开始准备输出ip和端口号
        char ipstr[64];
        inet_ntop(AF_INET,&peer.sin_addr,ipstr,sizeof(ipstr));
        *clientip = ipstr;
        *clientport = ntohs(peer.sin_port);

        return newfd;
    }

    bool Connect(const std::string &ip,const uint16_t &port)
    {
        struct sockaddr_in peer;
        memset(&peer,0,sizeof(peer));
        peer.sin_family = AF_INET;
        peer.sin_port = htons(port);
        inet_pton(AF_INET,ip.c_str(),&(peer.sin_addr));

        int n = connect(sockfd_,(struct sockaddr*)&peer,sizeof(peer));
        if(n == -1)
        {
            std::cout << "connect to " << ip << ":" << port << "error" << std::endl;
            return false;
        }
        return true;
    }

    void Close()
    {
        close(sockfd_);
    }

    int Fd()
    {
        return sockfd_;
    }
private:
    int sockfd_;
};

select总结:

优点:

1.就如实现的那样,select已经是多路转接的一种方案了,我们可以把所有的fd交给select去等待,就绪后通知我们去处理,这样的话即便是单进程也可以高效的处理多个fd的读写事件。

缺点:

1.等待的fd数量是有上限的(centos中是1024个)。这不是操作系统的限制,而是它的接口设计就是这样的。(这也是最大的缺点)

2.输入输出型参数比较多,用户到内核,内核到用户,数据拷贝频率较高。

3.也是因为输入输出型参数比较多,每次都要对关心的fd进行事件重置。

4.对于用户层,使用第三方数组来管理用户的fd,用户层需要很多次遍历。对于内核层,检测fd事件就绪,也要遍历。

所以总的看来,select在所有的IO中效率算高的,毕竟它是多路转接的一种方案,但是它实际上会有很多的拷贝和遍历,这也是比较影响效率的。

一般select在小型的场景下可以简单使用。

多路转接之poll

  学完select之后,我们明白了select有很多的短板,我们看poll是如何解决的。 

这里的timeout跟select不一样,这里是一个整形,代表的单位是毫秒。 

其中这个pollfd的结构体

看描述就可以知道,events 是我们需要内核关心哪些事件,而revents则是内核告诉用户,哪些事件就绪了,而fd则是我们告诉内核是哪个文件描述符需要被关心。

所以poll这里我们第一个参数传入的是一个结构体数组,第二个参数是结构体数组的大小。

因此,poll最大的特点的是,将输入和输出事件进行了分离!

关于events的传参,这里也设计成了位图的样子

 通过传入不同的参,来表示关心的事件。这些大写的都是宏。这里我们可以重点看POLLIN和POLLOUT,分别代表的读和写。

简单讲代码替换成基于poll实现的服务器

PollServer.hpp

#pragma once

#include <iostream>
#include <poll.h>
#include <time.h>
#include "Socket.hpp"
#include "Log.hpp"

using namespace std;

static const int defaultport = 8080;
static const int fd_num_max = 128;  // 这里直接设置成65535也没问题
int defaultfd = -1;
int non_event = 0;

class PollServer
{
public:
    PollServer(uint16_t port = defaultport)
        :_port(port)
    {
        for(int i = 0; i < fd_num_max; ++i)
        {
            _event_fds[i].fd = defaultfd;
            _event_fds[i].events = non_event;
            _event_fds[i].revents = non_event;
        }
    }

    bool Init()
    {
        _listensock.Socket();
        _listensock.Bind(_port);
        _listensock.Listen();

        return true;
    }

    void Accepter()
    {
        // 说明连接事件就绪了
        std::string clientip;
        uint16_t clientport = 0;;
        int sock = _listensock.Accept(&clientip,&clientport);  // 这里已经不会再阻塞了,select已经帮我们等完了
        if(sock < 0) return;
        lg(Info,"accept success,%s : %d,sock fd : %d",clientip.c_str(),clientport,sock);

        int pos = 1;
        for(;pos < fd_num_max; ++pos)  // 这里是第1个循环,是为了将新的fd插入到用户维护的数组中
        {
            if(_event_fds[pos].fd != defaultfd)
                continue;
            else 
                break;
        }

        if(pos == fd_num_max)
        {
            lg(Warning,"server is full,close %d now!",sock);
            close(sock);
        }
        else 
        {
            _event_fds[pos].fd = sock;
            _event_fds[pos].events = POLLIN;  // 如果要同时关心读写, POLLIN | POLLOUT
            _event_fds[pos].revents = non_event;
            PrintFd();
        }
    }

    void Recver(int fd,int pos)
    {
        // 这里只是一个demo,我们并没有处理都上来的数据是否是完整的报文
        char buffer[1024];
        ssize_t n = read(fd,&buffer,sizeof(buffer) - 1); //数据不一定完整 ,但是这里不会阻塞了
        if(n > 0)
        {
            buffer[n] = 0;
            cout << "get a messge : " << buffer << endl;
        }
        else if(n == 0)  // 对方关闭连接了
        {
            lg(Info,"client quit , me too, close fd is : %d",fd);
            close(fd);
            _event_fds[pos].fd = defaultfd; // 这里本质是从select中移除
        }
        else 
        {
            // 读出错了也要关闭
            lg(Warning,"recv error : fd is : %d",fd);
            close(fd);
            _event_fds[pos].fd = defaultfd; // 本质还是从select中移除
        }
    }

    void Dispatcher()  // 任务派发器
    {
        for(int i = 0; i < fd_num_max; ++i)  // 这里是第二个循环了
        {
            int fd = _event_fds[i].fd;
            if(fd == defaultfd)
                continue;
            
            if(_event_fds[i].revents & POLLIN) 
            {
                if(fd == _listensock.Fd()) // 说明是新链接就绪了
                {
                    Accepter(); // 连接管理器
                }
                else // 说明某个链接的读事件就绪了
                {
                    Recver(fd,i);
                }
            }
        }
    }

    void Start()
    {
        _event_fds[0].fd = _listensock.Fd();
        _event_fds[0].events = POLLIN;
        int timeout = 3000; // 代表的是3s
        while(true)
        {
            int n = poll(_event_fds,fd_num_max,timeout);
            if(n > 0)
            {
                // 说明有事件就绪了
                cout << "get a new link" << endl;
                // 我们也不知道是一个就绪了还是多个就绪了
                // 而且这里也不知道是新链接来了,还是读事件就绪了
                Dispatcher(); 
            }
            else if(n == 0)
            {
                cout << "time out ..." << endl;
            }
            else if(n == -1)
            {
                cout << "select error!!!" << endl;
            }
        }
    }

    void PrintFd()
    {
        cout << "online fd list : ";
        for(int i = 0; i < fd_num_max; ++i)
        {
            if(_event_fds[i].fd == defaultfd)
                continue;
            cout << _event_fds[i].fd << " ";
        }
        cout << endl;
    }

    ~PollServer()
    {
        _listensock.Close();
    }
private:
    Sock _listensock;
    uint16_t _port;
    struct pollfd _event_fds[fd_num_max]; // 依旧是由用户维护的数组

    //int fd_array[fd_num_max];  // 这是用户维护的数组。
};

Main.cc和makefile简单改改就好了。

这样实现的话,我们发现不仅接口变简单了,而且每次poll前相比select,少了一次循环。

更重要的是,fd的数量上限不再受接口限制了。

select已经比较古老了,如果要在select和poll二选一,建议还是选择poll,除非平台也很古老,只支持select。

我们很轻易的就将select替换成poll了,说明两者还是有很多相似的地方了。

主要还是遍历的问题:虽然少了一次,但是依旧需要在用户层遍历,在内核层也是。如果数组很大,每次遍历的消耗也大,效率就不一定像原本想的那样高。

这个已经不是功能方面的问题了,这是效率方面的问题。

相关推荐

  1. Linux高级IO——转接之select

    2024-04-04 06:12:03       46 阅读
  2. Linux高级IO——转接之poll

    2024-04-04 06:12:03       14 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-04-04 06:12:03       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-04 06:12:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-04 06:12:03       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-04 06:12:03       20 阅读

热门阅读

  1. C/C++混合项目,程序运行报错:未定义函数符号

    2024-04-04 06:12:03       11 阅读
  2. HTML优化SEO的实用技巧

    2024-04-04 06:12:03       16 阅读
  3. 大话设计模式之组合模式

    2024-04-04 06:12:03       11 阅读
  4. 我的创作纪念日

    2024-04-04 06:12:03       17 阅读
  5. acrn guest 内存分析

    2024-04-04 06:12:03       11 阅读
  6. DockerFile启动jar程序

    2024-04-04 06:12:03       12 阅读
  7. Sass学习记录

    2024-04-04 06:12:03       14 阅读
  8. NRM详解

    2024-04-04 06:12:03       18 阅读
  9. SpringBoot如何集成nacos,用于服务发现和配置管理

    2024-04-04 06:12:03       13 阅读
  10. 【Next.js】连接 MongoDB 实现基本的接口

    2024-04-04 06:12:03       15 阅读
  11. MongoDB聚合运算符:$lte

    2024-04-04 06:12:03       14 阅读