您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息

一文聊聊Node中的可读流

2024/4/16 12:01:30发布6次查看
本篇文章带大家解读一下node.js流源码,深入了解下node可读流,看看其基本原理、使用方法与工作机制,希望对大家有所帮助!
1. 基本概念1.1. 流的历史演变
流不是 nodejs 特有的概念。 它们是几十年前在 unix 操作系统中引入的,程序可以通过管道运算符(|)对流进行相互交互。
在基于unix系统的macos以及linux中都可以使用管道运算符(|),他可以将运算符左侧进程的输出转换成右侧的输入。
在node中,我们使用传统的readfile去读取文件的话,会将文件从头到尾都读到内存中,当所有内容都被读取完毕之后才会对加载到内存中的文件内容进行统一处理。
这样做会有两个缺点:
内存方面:占用大量内存
时间方面:需要等待数据的整个有效负载都加载完才会开始处理数据
为了解决上述问题,node.js效仿并实现了流的概念,在node.js流中,一共有四种类型的流,他们都是node.js中eventemitter的实例:
可读流(readable stream)
可写流(writable stream)
可读可写全双工流(duplex stream)
转换流(transform stream)
为了深入学习这部分的内容,循序渐进的理解node.js中流的概念,并且由于源码部分较为复杂,本人决定先从可读流开始学习这部分内容。
1.2. 什么是流(stream)
流是一种抽象的数据结构,是数据的集合,其中存储的数据类型只能为以下类型(仅针对objectmode === false的情况):
stringbuffer我们可以把流看作这些数据的集合,就像液体一样,我们先把这些液体保存在一个容器里(流的内部缓冲区bufferlist),等到相应的事件触发的时候,我们再把里面的液体倒进管道里,并通知其他人在管道的另一侧拿自己的容器来接里面的液体进行处理。
1.3. 什么是可读流(readable stream)
可读流是流的一种类型,他有两种模式三种状态
两种读取模式:
流动模式:数据会从底层系统读取,并通过eventemitter尽快的将数据传递给所注册的事件处理程序中
暂停模式:在这种模式下将不会读取数据,必须显示的调用stream.read()方法来从流中读取数据
三种状态:
readableflowing === null:不会产生数据,调用stream.pipe()、stream.resume会使其状态变为true,开始产生数据并主动触发事件
readableflowing === false:此时会暂停数据的流动,但不会暂停数据的生成,因此会产生数据积压
readableflowing === true:正常产生和消耗数据
2. 基本原理2.1. 内部状态定义(readablestate)
readablestate
_readablestate: readablestate { objectmode: false, // 操作除了string、buffer、null之外的其他类型的数据需要把这个模式打开 highwatermark: 16384, // 水位限制,1024 \* 16,默认16kb,超过这个限制则会停止调用\_read()读数据到buffer中 buffer: bufferlist { head: null, tail: null, length: 0 }, // buffer链表,用于保存数据 length: 0, // 整个可读流数据的大小,如果是objectmode则与buffer.length相等 pipes: [], // 保存监听了该可读流的所有管道队列 flowing: null, // 可独流的状态 null、false、true ended: false, // 所有数据消费完毕 endemitted: false, // 结束事件收否已发送 reading: false, // 是否正在读取数据 constructed: true, // 流在构造好之前或者失败之前,不能被销毁 sync: true, // 是否同步触发'readable'/'data'事件,或是等到下一个tick needreadable: false, // 是否需要发送readable事件 emittedreadable: false, // readable事件发送完毕 readablelistening: false, // 是否有readable监听事件 resumescheduled: false, // 是否调用过resume方法 erroremitted: false, // 错误事件已发送 emitclose: true, // 流销毁时,是否发送close事件 autodestroy: true, // 自动销毁,在'end'事件触发后被调用 destroyed: false, // 流是否已经被销毁 errored: null, // 标识流是否报错 closed: false, // 流是否已经关闭 closeemitted: false, // close事件是否已发送 defaultencoding: 'utf8', // 默认字符编码格式 awaitdrainwriters: null, // 指向监听了'drain'事件的writer引用,类型为null、writable、set<writable> multiawaitdrain: false, // 是否有多个writer等待drain事件 readingmore: false, // 是否可以读取更多数据 dataemitted: false, // 数据已发送 decoder: null, // 解码器 encoding: null, // 编码器 [symbol(kpaused)]: null},
2.2. 内部数据存储实现(bufferlist)
bufferlist是用于流保存内部数据的容器,它被设计为了链表的形式,一共有三个属性head、tail和length。
bufferlist中的每一个节点我把它表示为了buffernode,里面的data的类型取决于objectmode。
这种数据结构获取头部的数据的速度快于array.prototype.shift()。
2.2.1. 数据存储类型
如果objectmode === true:
那么data则可以为任意类型,push的是什么数据则存储的就是什么数据
objectmode=true
const stream = require('stream');const readablestream = new stream.readable({ objectmode: true, read() {},});readablestream.push({ name: 'lisa'});console.log(readablestream._readablestate.buffer.tail);readablestream.push(true);console.log(readablestream._readablestate.buffer.tail);readablestream.push('lisa');console.log(readablestream._readablestate.buffer.tail);readablestream.push(666);console.log(readablestream._readablestate.buffer.tail);readablestream.push(() => {});console.log(readablestream._readablestate.buffer.tail);readablestream.push(symbol(1));console.log(readablestream._readablestate.buffer.tail);readablestream.push(bigint(123));console.log(readablestream._readablestate.buffer.tail);
运行结果:
如果objectmode === false:
那么data只能为string或者buffer或者uint8array
objectmode=false
const stream = require('stream');const readablestream = new stream.readable({ objectmode: false, read() {},});readablestream.push({ name: 'lisa'});
运行结果:
2.2.2. 数据存储结构
我们在控制台通过node命令行创建一个可读流,来观察buffer中数据的变化:
当然在push数据之前我们需要实现他的_read方法,或者在构造函数的参数中实现read方法:
const stream = require('stream');const readablestream = new stream.readable();rs._read = function(size) {}
或者
const stream = require('stream');const readablestream = new stream.readable({ read(size) {}});
经过readablestream.push('abc')操作之后,当前的buffer为:
可以看到目前的数据存储了,头尾存储的数据都是字符串'abc'的ascii码,类型为buffer类型,length表示当前保存的数据的条数而非数据内容的大小。
2.2.3. 相关api
打印一下bufferlist的所有方法可以得到:
除了join是将bufferlist序列化为字符串之外,其他都是对数据的存取操作。
这里就不一一讲解所有的方法了,重点讲一下其中的consume 、_getstring和_getbuffer。
2.2.3.1. consume
源码地址:bufferlist.consumehttps://github.com/nodejs/node/blob/d5e94fa7121c9d424588f0e1a388f8c72c784622/lib/internal/streams/buffer_list.js#l80
comsume
// consumes a specified amount of bytes or characters from the buffered data.consume(n, hasstrings) { const data = this.head.data; if (n < data.length) { // `slice` is the same for buffers and strings. const slice = data.slice(0, n); this.head.data = data.slice(n); return slice; } if (n === data.length) { // first chunk is a perfect match. return this.shift(); } // result spans more than one buffer. return hasstrings ? this.\_getstring(n) : this.\_getbuffer(n);}
代码一共有三个判断条件:
如果所消耗的数据的字节长度小于链表头节点存储数据的长度,则将头节点的数据取前n字节,并把当前头节点的数据设置为切片之后的数据
如果所消耗的数据恰好等于链表头节点所存储的数据的长度,则直接返回当前头节点的数据
如果所消耗的数据的长度大于链表头节点的长度,那么会根据传入的第二个参数进行最后一次判断,判断当前的bufferlist底层存储的是string还是buffer
2.2.3.2. _getbuffer
源码地址:bufferlist._getbufferhttps://github.com/nodejs/node/blob/d5e94fa7121c9d424588f0e1a388f8c72c784622/lib/internal/streams/buffer_list.js#l137
comsume
// consumes a specified amount of bytes from the buffered data._getbuffer(n) { const ret = buffer.allocunsafe(n); const retlen = n; let p = this.head; let c = 0; do { const buf = p.data; if (n > buf.length) { typedarrayprototypeset(ret, buf, retlen - n); n -= buf.length; } else { if (n === buf.length) { typedarrayprototypeset(ret, buf, retlen - n); ++c; if (p.next) this.head = p.next; else this.head = this.tail = null; } else { typedarrayprototypeset(ret, new uint8array(buf.buffer, buf.byteoffset, n), retlen - n); this.head = p; p.data = buf.slice(n); } break; } ++c; } while ((p = p.next) !== null); this.length -= c; return ret;}
总的来说就是循环对链表中的节点进行操作,新建一个buffer数组用于存储返回的数据。
首先从链表的头节点开始取数据,不断的复制到新建的buffer中,直到某一个节点的数据大于等于要取的长度减去已经取得的长度。
或者说读到链表的最后一个节点后,都还没有达到要取的长度,那么就返回这个新建的buffer。
2.2.3.3. _getstring
源码地址:bufferlist._getstringhttps://github.com/nodejs/node/blob/d5e94fa7121c9d424588f0e1a388f8c72c784622/lib/internal/streams/buffer_list.js#l106
comsume
// consumes a specified amount of characters from the buffered data._getstring(n) { let ret = ''; let p = this.head; let c = 0; do { const str = p.data; if (n > str.length) { ret += str; n -= str.length; } else { if (n === str.length) { ret += str; ++c; if (p.next) this.head = p.next; else this.head = this.tail = null; } else { ret += stringprototypeslice(str, 0, n); this.head = p; p.data = stringprototypeslice(str, n); } break; } ++c; } while ((p = p.next) !== null); this.length -= c; return ret;}
对于操作字符串来说和操作buffer是一样的,也是循环从链表的头部开始读数据,只是进行数据的拷贝存储方面有些差异,还有就是_getstring操作返回的数据类型是string类型。
2.3. 为什么可读流是eventemitter的实例?
对于这个问题而言,首先要了解什么是发布订阅模式,发布订阅模式在大多数api中都有重要的应用,无论是promise还是redux,基于发布订阅模式实现的高级api随处可见。
它的优点在于能将事件的相关回调函数存储到队列中,然后在将来的某个时刻通知到对方去处理数据,从而做到关注点分离,生产者只管生产数据和通知消费者,而消费者则只管处理对应的事件及其对应的数据,而node.js流模式刚好符合这一特点。
那么node.js流是怎样实现基于eventemitter创建实例的呢?
这部分源码在这儿:stream/legacyhttps://github.com/nodejs/node/blob/d5e94fa7121c9d424588f0e1a388f8c72c784622/lib/internal/streams/legacy.js#l10
legacy
function stream(opts) { ee.call(this, opts);}objectsetprototypeof(stream.prototype, ee.prototype);objectsetprototypeof(stream, ee);
然后在可读流的源码中有这么几行代码:
这部分源码在这儿:readablehttps://github.com/nodejs/node/blob/d5e94fa7121c9d424588f0e1a388f8c72c784622/lib/internal/streams/readable.js#l77
legacy
objectsetprototypeof(readable.prototype, stream.prototype);objectsetprototypeof(readable, stream);
首先将stream的原型对象继承自eventemitter,这样stream的所有实例都可以访问到eventemitter上的方法。
同时通过objectsetprototypeof(stream, ee)将eventemitter上的静态方法也继承过来,并在stream的构造函数中,借用构造函数ee来实现所有eventemitter中的属性的继承,然后在可读流里,用同样的的方法实现对stream类的原型继承和静态属性继承,从而得到:
readable.prototype.__proto__ === stream.prototype;
stream.prototype.__proto__ === ee.prototype
因此:
readable.prototype.__proto__.__proto__ === ee.prototype
所以捋着可读流的原型链可以找到eventemitter的原型,实现对eventemitter的继承
2.4. 相关api的实现
这里会按照源码文档中api的出现顺序来展示,且仅解读其中的核心api实现。
注:此处仅解读node.js可读流源码中所声明的函数,不包含外部引入的函数定义,同时为了减少篇幅,不会将所有代码都拷贝下来。
readable.prototype
stream { destroy: [function: destroy], _undestroy: [function: undestroy], _destroy: [function (anonymous)], push: [function (anonymous)], unshift: [function (anonymous)], ispaused: [function (anonymous)], setencoding: [function (anonymous)], read: [function (anonymous)], _read: [function (anonymous)], pipe: [function (anonymous)], unpipe: [function (anonymous)], on: [function (anonymous)], addlistener: [function (anonymous)], removelistener: [function (anonymous)], off: [function (anonymous)], removealllisteners: [function (anonymous)], resume: [function (anonymous)], pause: [function (anonymous)], wrap: [function (anonymous)], iterator: [function (anonymous)], [symbol(nodejs.rejection)]: [function (anonymous)], [symbol(symbol.asynciterator)]: [function (anonymous)]}
2.4.1. push
readable.push
readable.prototype.push = function(chunk, encoding) { return readableaddchunk(this, chunk, encoding, false);};
push方法的主要作用就是将数据块通过触发'data'事件传递给下游管道,或者将数据存储到自身的缓冲区中。
以下代码为相关伪代码,仅展示主流程:
readable.push
function readableaddchunk(stream, chunk, encoding, addtofront) { const state = stream.\_readablestate; if (chunk === null) { // push null 流结束信号,之后不能再写入数据 state.reading = false; oneofchunk(stream, state); } else if (!state.objectmode) { // 如果不是对象模式 if (typeof chunk === 'string') { chunk = buffer.from(chunk); } else if (chunk instanceof buffer) { //如果是buffer // 处理一下编码 } else if (stream.\_isuint8array(chunk)) { chunk = stream.\_uint8arraytobuffer(chunk); } else if (chunk != null) { err = new err\_invalid\_arg\_type('chunk', ['string', 'buffer', 'uint8array'], chunk); } } if (state.objectmode || (chunk && chunk.length > 0)) { // 是对象模式或者chunk是buffer // 这里省略几种数据的插入方式的判断 addchunk(stream, state, chunk, true); }}function addchunk(stream, state, chunk, addtofront) { if (state.flowing && state.length === 0 && !state.sync && stream.listenercount('data') > 0) { // 如果处于流动模式,有监听data的订阅者 stream.emit('data', chunk); } else { // 否则保存数据到缓冲区中 state.length += state.objectmode ? 1 : chunk.length; if (addtofront) { state.buffer.unshift(chunk); } else { state.buffer.push(chunk); } } maybereadmore(stream, state); // 尝试多读一点数据}
push操作主要分为对objectmode的判断,不同的类型对传入的数据会做不同的操作:
objectmode === false: 将数据(chunk)转换成bufferobjectmode === true: 将数据原封不动的传递给下游其中addchunk的第一个判断主要是处理readable处于流动模式、有data监听器、并且缓冲区数据为空时的情况。
这时主要将数据passthrough透传给订阅了data事件的其他程序,否则就将数据保存到缓冲区里面。
2.4.2. read
除去对边界条件的判断、流状态的判断,这个方法主要有两个操作
调用用户实现的_read方法,对执行结果进行处理
从缓冲区buffer中读取数据,并触发'data'事件
readable.read
// 如果read的长度大于hwm,则会重新计算hwmif (n > state.highwatermark) { state.highwatermark = computenewhighwatermark(n); }// 调用用户实现的\_read方法try { const result = this.\_read(state.highwatermark); if (result != null) { const then = result.then; if (typeof then === 'function') { then.call( result, nop, function(err) { errorordestroy(this, err); }); } }} catch (err) { errorordestroy(this, err);}
如果说用户实现的_read方法返回的是一个promise,则调用这个promise的then方法,将成功和失败的回调传入,便于处理异常情况。
read方法从缓冲区里读区数据的核心代码如下:
readable.read
function fromlist(n, state) { // nothing buffered. if (state.length === 0) return null; let ret; if (state.objectmode) ret = state.buffer.shift(); else if (!n || n >= state.length) { // 处理n为空或者大于缓冲区的长度的情况 // read it all, truncate the list. if (state.decoder) // 有解码器,则将结果序列化为字符串 ret = state.buffer.join(''); else if (state.buffer.length === 1) // 只有一个数据,返回头节点数据 ret = state.buffer.first(); else // 将所有数据存储到一个buffer中 ret = state.buffer.concat(state.length); state.buffer.clear(); // 清空缓冲区 } else { // 处理读取长度小于缓冲区的情况 ret = state.buffer.consume(n, state.decoder); } return ret;}
2.4.3. _read
用户初始化readable stream时必须实现的方法,可以在这个方法里调用push方法,从而持续的触发read方法,当我们push null时可以停止流的写入操作。
示例代码:
readable._read
const stream = require('stream');const readablestream = new stream.readable({ read(hwm) { this.push(string.fromcharcode(this.currentcharcode++)); if (this.currentcharcode > 122) { this.push(null); } },});readablestream.currentcharcode = 97;readablestream.pipe(process.stdout);// abcdefghijklmnopqrstuvwxyz%
2.4.4. pipe(重要)
将一个或多个writable流绑定到当前的readable流上,并且将readable流切换到流动模式。
这个方法里面有很多的事件监听句柄,这里不会一一介绍:
readable.pipe
readable.prototype.pipe = function(dest, pipeopts) { const src = this; const state = this.\_readablestate; state.pipes.push(dest); // 收集writable流 src.on('data', ondata); function ondata(chunk) { const ret = dest.write(chunk); if (ret === false) { pause(); } } // tell the dest that it's being piped to. dest.emit('pipe', src); // 启动流,如果流处于暂停模式 if (dest.writableneeddrain === true) { if (state.flowing) { pause(); } } else if (!state.flowing) { src.resume(); } return dest;}
pipe操作和linux的管道操作符'|'非常相似,将左侧输出变为右侧输入,这个方法会将可写流收集起来进行维护,并且当可读流触发'data'事件。
有数据流出时,就会触发可写流的写入事件,从而做到数据传递,实现像管道一样的操作。并且会自动将处于暂停模式的可读流变为流动模式。
2.4.5. resume
使流从'暂停'模式切换到'流动'模式,如果设置了'readable'事件监听,那么这个方法其实是没有效果的
readable.resume
readable.prototype.resume = function() { const state = this._readablestate; if (!state.flowing) { state.flowing = !state.readablelistening; // 是否处于流动模式取决于是否设置了'readable'监听句柄 resume(this, state); }};function resume(stream, state) { if (!state.resumescheduled) { // 开关,使resume_方法仅在同一个tick中调用一次 state.resumescheduled = true; process.nexttick(resume_, stream, state); }}function resume_(stream, state) { if (!state.reading) { stream.read(0); } state.resumescheduled = false; stream.emit('resume'); flow(stream);}function flow(stream) { // 当流处于流模式该方法会不断的从buffer中读取数据,直到缓冲区为空 const state = stream._readablestate; while (state.flowing && stream.read() !== null); // 因为这里会调用read方法,设置了'readable'事件监听器的stream,也有可能会调用read方法, //从而导致数据不连贯(不影响data,仅影响在'readable'事件回调中调用read方法读取数据)}
2.4.6. pause
将流从流动模式转变为暂停模式,停止触发'data'事件,将所有的数据保存到缓冲区
readable.pause
readable.prototype.pause = function() { if (this._readablestate.flowing !== false) { debug('pause'); this._readablestate.flowing = false; this.emit('pause'); } return this;};
2.5. 使用方法与工作机制
使用方法在bufferlist部分已经讲过了,创建一个readable实例,并实现其_read()方法,或者在构造函数的第一个对象参数中实现read方法。
2.5.1. 工作机制
这里只画了大致的流程,以及readable流的模式转换触发条件。
其中:
needreadable(true): 暂停模式并且buffer数据<=hwm、绑定了readable事件监听函数、read数据时缓冲区没有数据或者返回数据为空push: 如果处于流动模式,缓冲区里没有数据会触发'data'事件;否则将数据保存到缓冲区根据needreadable状态触发'readable'事件read: 读length=0长度的数据时,buffer中的数据已经到达hwm或者溢出需要触发'readable'事件;从buffer中读取数据并触发'data'事件resume: 有'readable'监听,该方法不起作用;否则将流由暂停模式转变为流动模式,并清空缓冲区里的数据readable触发条件:绑定了'readable'事件并且缓冲区里有数据、push数据时缓冲区有数据,并且needreadable === true、读length=0长度的数据时,buffer中的数据已经到达hwm或者溢出3. 总结node.js为了解决内存问题和时间问题,实现了自己的流,从而可以将数据一小块一小块的读到内存里给消费者消费流并不是node.js特有的概念,它们是几十年前在 unix 操作系统中引入的流一共有四种类型:可读流、可写流、可读可写流、转换流,他们都继承了eventemiiter的实例方法和静态方法,都是ee的实例流的底层容器是基于bufferlist的,这是一种自定义的链表实现,头尾各是一个“指针”指向下一个节点引用可读流有两种模式三种状态,在流动模式下会通过eventemitter将数据发送给消费者基于流我们可以实现对数据的链式处理,并且可以装配不同的流处理函数,来实现对流的各种操作,转换成我们想要的数据更多node相关知识,请访问:nodejs 教程!
以上就是一文聊聊node中的可读流的详细内容。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录