nodejs版本大文件之断点下载

nodejs版本大文件之断点下载

月光魔力鸭

2020-05-20 11:17 阅读 122 喜欢 1 断点下载 nodejs express

断点下载这种操作比较常见,今天又用到了,用来做demo,简单搭建一个,一时去找也还找不到,想着也不麻烦,先做个demo试试。

框架

语言:nodejs 包:express fs

目的

通过nodejs实现一个大文件的断点下载的服务。

干活代码

由于没啥复杂的,这里直接上代码,简单说明下。 http断点下载是通过range来判断文件的起始位置的。其基本原理就是,在文件的下载断开以后。客户端继续向服务器端请求的时候,http请求的头文件中会多了一个参数“Range”,来标示当前下载的文件所断开的位置。

const express = require('express');
const fs = require('fs');
let app = express();
app.get('/', (req, res, next) => {
    let range = req.headers["range"];
    // 下载文件路径
    let p = 'workspace.rar';
    // 存在 range 请求头将返回范围请求的数据
    if (range) {
        // 获取范围请求的开始和结束位置
        let [, start, end] = range.match(/(\d*)-(\d*)/);
        // 错误处理
        let statObj = null;
        try {
            statObj = fs.statSync(p);
        } catch (e) {
            res.end("Not Found");
        }
        // 文件总字节数
        let total = statObj.size;
        // 处理请求头中范围参数不传的问题
        start = start ? parseInt(start) : 0;
        end = end ? parseInt(end) : total - 1;
        // 响应客户端
        res.statusCode = 206;
        res.setHeader("Accept-Ranges", "bytes");
        res.setHeader("Content-Range", `bytes ${start}-${end}/${total}`);
        fs.createReadStream(p, {
            start,
            end
        }).pipe(res);
    } else {
        // 没有 range 请求头时将整个文件内容返回给客户端
        fs.createReadStream(p).pipe(res);
    }
})
app.listen(3000, () => {
    console.log(`server is running at port 3000`)
})

测试

可以通过wget命令来测试,-c是启用断点下载。

wget -c -d --limit-rate=2048k -O target "http://localhost:3000"

wget windows 下载:wget windows 下载地址

由于只是一个demo,用来做下载测试的,所以用nodejs做了个简单的,线上的话还是不要用这个了,有很多方案可以解决。

转载请注明出处: https://chrunlee.cn/article/nodejs-file-range-download.html


感谢支持!

赞赏支持
提交评论
评论信息(请文明评论)
暂无评论,快来快来写想法...
推荐
跑了一个千库网的自动签到,在windows上测试的时候好好的,图片也没问题,可是放到linux服务器就不行了,总是登录不上不说,图片都不一样
通过node-xlsx模块读取excel和写入
目前了解的有两个模块可以实现二维码的模块,一个是node-qrcode ,这个算是比较大众的,不过环境比较复杂,所以...连看都没看;还有一个是小众的 qr-image ,这个比较简单,没有其他环境依赖,安装即可用,因为要实现一个简单的在线二维码生成,就先用这个试试水了
通过pm2来实现nodejs应用的集群,不过我之前没做session共享,导致.. 登录不上啊 啊啊啊,无奈,又重新对redis进行了集成。
前几天给朋友帮忙,想要一个一模一样的网站...自告奋勇去帮忙.. 结果发现之前一直没处理过类似的情况,虽然也写过爬虫,不过看了下网站,也不算麻烦。于是简单实现了这个自动抓站的功能,最终整理成为一个自动抓站的工具,能省很多的事情。
写文章总会需要一些素材,但是好多素材都是收费或有限制的,还是我要求不高,在千库网看了下还不错,有各签到还送VIP,于是就有了想法....
记录下在linux环境下安装phantomjs 的步骤,防止遗忘...
通过nodejs来进行爬取页面的内容,这里简单试试做个小任务..