百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

扒一扒Nodejs formidable的onPart

zhezhongyun 2025-02-17 15:01 33 浏览

话说使用Nodejs实现一个文件上传,还是蛮简单的,基于Express4.x一般也就formidable用的多些吧;基本的不多说了,github一下都会的;接着《也说文件上传之兼容IE789的进度条---丢掉flash》,新版的大文件上传,最后就差断点续传了,业余跟进中...;对于IE789,在文件上传这块,算是与HTML5无缘了,当然我也选择丢掉了flash,就用最原始的input[type="file"]+hideIframe+轮询;OK,IE789可以凉快去了,BSIE!

那么,现代浏览器上就不一样了;大家都知道用HTML5上传大文件必然会选择分段,files API的file.slice(start,end)+formData;简单的将就看吧:

 1 var uploader=function{
 2 
 3   //....
 4 
 5   function Files(obj){
 6     this.files=obj.files;
 7     this.__token__=utils.getRandomStr;
 8     this.url=obj.url||location.href;
 9     this.chunkSize=obj.chunkSize||200*1024;
10     this.chunks=Math.ceil(this.files.size/this.chunkSize);
11     this.index=0;
12     this.onprogress=obj.onprogress||function(p){console.log(p);};
13   }
14   Files.prototype={
15     postFiles:function{
16       var $self=this;
17       //大于50M 断点续传
18       if (this.files.size>50*1024*1024) {
19         var fileReader = new FileReader,spark = new SparkMD5.ArrayBuffer;
20         fileReader.onload = function (e) {
21  spark.append(e.target.result);   
22 $self.hash=spark.end;   
23 window.__hash__=$self.hash;       
24 var stored=localStorage.getItem('fileUploadInfos');
25 //断点信息
26  $self.postSlice;
27  };
28         fileReader.readAsArrayBuffer(this.files.slice(0, 10240));
29       }else{
30         this.postSlice;
31       };
32     },
33     postSlice:function{
34       var $self=this;
35       if (this.index>=this.chunks) {
36         return false;
37       };
38       this.start=this.index*this.chunkSize;
39       this.end=Math.min(this.files.size,this.start+this.chunkSize);
40 
41       var self=this;
42       var fd = new FormData;
43       fd.append("sliceData", this.files.slice(this.start,this.end));
44       this.url=//url datas
45       var xhr = new XMLHttpRequest;
46       xhr.upload.addEventListener("progress", function(evt){
47         if (evt.lengthComputable) {
48 var led=self.index*self.chunkSize*1+evt.loaded*1;
49 var p=parseFloat((led)/self.files.size*100).toFixed(2);
50 self.onprogress&&self.onprogress(p);
51         }else {
52 console.log('unable to compute');
53         }
54       }, false);
55       xhr.addEventListener("load", function{
56         self.index++;
57         self.postSlice;
58         eval(xhr.responseText);
59       }, false);
60       xhr.open("POST", this.url);
61       // xhr.addEventListener("error", uploadFailed, false);
62       xhr.addEventListener("abort", function  {
63         //记录断点信息
64       }, false);
65       xhr.send(fd);
66     }
67   }
68 
69   return {
70     Files:Files
71     //.....
72   }
73 };
74 
75 if (this.files) {
76   var Files=new uploader.Files({
77     files:this.files[0],
78     chunkSize:10*1024*1024,
79     onprogress:function(p){
80       callbk(p);
81     }
82   });
83   Files.postFiles;
84 }

好吧,其实大家都懂,我就不多BB了;还是说formidable吧,既然用到分段上传,formidable的一般做法肯定是行不通的;不过github上人家也说了,onPart或许可以。。。。。。原谅我英语有点low,一知半解;原文这样的:

You may overwrite this method if you are interested in directly accessing the multipart stream. Doing so will disable any'field'/'file'events processing which would occur otherwise, making you fully responsible for handling the processing.

form.onPart = function(part) { part.addListener('data', function { // ... }); }

If you want to use formidable to only handle certain parts for you, you can do so:

form.onPart = function(part) { if (!part.filename) { // let formidable handle all non-file parts form.handlePart(part); } }

也就是我们需要使用onPart来分段接收前端发过来的数据,然后合成一个文件,生成到指定目录;

当使用formData上传时,在request headers里我们会看到有项request payload,也就是我们发送过去的数据,这是未解析的原始数据;那么,难道我们还要自己解析吗?不会玩了。。。

扒一扒formidable的源代码,会发现有好几个_parser结尾的js文件;再看incoming_form.js里有这么一段:

 1 IncomingForm.prototype._parseContentType = function {
 2   if (this.bytesExpected === 0) {
 3     this._parser = dummyParser(this);
 4     return;
 5   }
 6 
 7   if (!this.headers['content-type']) {
 8     this._error(new Error('bad content-type header, no content-type'));
 9     return;
10   }
11 
12   if (this.headers['content-type'].match(/octet-stream/i)) {
13     this._initOctetStream;
14     return;
15   }
16 
17   if (this.headers['content-type'].match(/urlencoded/i)) {
18     this._initUrlencoded;
19     return;
20   }
21 
22   if (this.headers['content-type'].match(/multipart/i)) {
23     var m = this.headers['content-type'].match(/boundary=(?:"([^"]+)"|([^;]+))/i);
24     if (m) {
25       this._initMultipart(m[1] || m[2]);
26     } else {
27       this._error(new Error('bad content-type header, no multipart boundary'));
28     }
29     return;
30   }
31 
32   if (this.headers['content-type'].match(/json/i)) {
33     this._initJSONencoded;
34     return;
35   }
36 
37   this._error(new Error('bad content-type header, unknown content-type: '+this.headers['content-type']));
38 };

这几条if很是让人欣喜啊,有木有?特别是看到这句:

this.headers['content-type'].match(/boundary=(?:"([^"]+)"|([^;]+))/i);

这不是在解决咱在request headers里看到的request payload吗?终于在心中大喜,咱不用自己解析那堆数据了;接着往下看:

 1 IncomingForm.prototype.onPart = function(part) {
 2   // this method can be overwritten by the user
 3   this.handlePart(part);
 4 };
 5 
 6 IncomingForm.prototype.handlePart = function(part) {
 7   var self = this;
 8 
 9   if (part.filename === undefined) {
10     var value = ''
11       , decoder = new StringDecoder(this.encoding);
12 
13     part.on('data', function(buffer) {
14       self._fieldsSize += buffer.length;
15       if (self._fieldsSize > self.maxFieldsSize) {
16         self._error(new Error('maxFieldsSize exceeded, received '+self._fieldsSize+' bytes of field data'));
17         return;
18       }
19       value += decoder.write(buffer);
20     });
21 
22     part.on('end', function {
23       self.emit('field', part.name, value);
24     });
25     return;
26   }
27 
28   this._flushing++;
29 
30   var file = new File({
31     path: this._uploadPath(part.filename),
32     name: part.filename,
33     type: part.mime,
34     hash: self.hash
35   });
36 
37   this.emit('fileBegin', part.name, file);
38 
39   file.open;
40   this.openedFiles.push(file);
41 
42   part.on('data', function(buffer) {
43     if (buffer.length == 0) {
44       return;
45     }
46     self.pause;
47     file.write(buffer, function {
48       self.resume;
49     });
50   });
51 
52   part.on('end', function {
53     file.end(function {
54       self._flushing--;
55       self.emit('file', part.name, file);
56       self._maybeEnd;
57     });
58   });
59 };

至此,终于明白作者的话了;自己处理上传的数据,是在handlePart中通过part.on('data')和part.on('end')来收集分段数据,然后生成文件的;那么使用分段上传的话,我们就需要在Nodejs里重写form.handlePart了;

 1 form.handlePart=function(part) {
 2   var dd=,ll=0;
 3   part.on('data', function(data) {
 4     if (data.length == 0) {
 5       return;
 6     }
 7     dd.push(data);
 8     ll+=data.length;
 9   });
10 
11   part.on('end', function {  
12       var p='./public/imgs/'+uploadToken+'_'+req.query.name;
13       fs.open(p, 'a', function (err, fd) {
14         if (err) {
15 throw err;
16         }
17         fs.write(fd, Buffer.concat(dd,ll),0, ll,0,function{
18 if (req.query.chunks==req.query.index*1+1) {
19  res.write(bk);
20  }
21 fs.close(fd,function{});
22  res.end;
23  });
24       }); 
25     } 
26   });
27 }

拿到data后生成文件并不难,fs.writeFile、stream都可以的;原谅我初入Nodejs,怎么感觉最后一步的写入文件,这两种方式都特慢呢?不能忍啊,再探!

试来试去,最后还是选择在接收到第一段数据时就生成文件,之后接收到的数据直接push进去;即上面的fs.write(fd,buffer,offset,length,position,cb);话说明显快了不少呢!

而且,意外的收获是:想一想接下来还要实现断点续传呢!想一想,貌似这样做,基本等于Nodejs端的断点续传已经实现了呢;前端记录断点的位置,下次上传时从断点位置开始,然后直接push到这个没上传完的文件里;

到这里,Nodejs端的分段接收文件就可以的了,而且还为之后的断点续传做了个很好的铺垫呢;

好了,对于大文件上传,formidable能做的差不多就这么多了,onPart是必须的;如果大家伙有什么更好的方法,欢迎与我分享!简单的记录,与君共勉,谢谢你能看到这儿!

相关推荐

JPA实体类注解,看这篇就全会了

基本注解@Entity标注于实体类声明语句之前,指出该Java类为实体类,将映射到指定的数据库表。name(可选):实体名称。缺省为实体类的非限定名称。该名称用于引用查询中的实体。不与@Tab...

Dify教程02 - Dify+Deepseek零代码赋能,普通人也能开发AI应用

开始今天的教程之前,先解决昨天遇到的一个问题,docker安装Dify的时候有个报错,进入Dify面板的时候会出现“InternalServerError”的提示,log日志报错:S3_USE_A...

用离散标记重塑人体姿态:VQ-VAE实现关键点组合关系编码

在人体姿态估计领域,传统方法通常将关键点作为基本处理单元,这些关键点在人体骨架结构上代表关节位置(如肘部、膝盖和头部)的空间坐标。现有模型对这些关键点的预测主要采用两种范式:直接通过坐标回归或间接通过...

B 客户端流RPC (clientstream Client Stream)

客户端编写一系列消息并将其发送到服务器,同样使用提供的流。一旦客户端写完消息,它就等待服务器读取消息并返回响应gRPC再次保证了单个RPC调用中的消息排序在客户端流RPC模式中,客户端会发送多个请...

我的模型我做主02——训练自己的大模型:简易入门指南

模型训练往往需要较高的配置,为了满足友友们的好奇心,这里我们不要内存,不要gpu,用最简单的方式,让大家感受一下什么是模型训练。基于你的硬件配置,我们可以设计一个完全在CPU上运行的简易模型训练方案。...

开源项目MessageNest打造个性化消息推送平台多种通知方式

今天介绍一个开源项目,MessageNest-可以打造个性化消息推送平台,整合邮件、钉钉、企业微信等多种通知方式。定制你的消息,让通知方式更灵活多样。开源地址:https://github.c...

使用投机规则API加快页面加载速度

当今的网络用户要求快速导航,从一个页面移动到另一个页面时应尽量减少延迟。投机规则应用程序接口(SpeculationRulesAPI)的出现改变了网络应用程序接口(WebAPI)领域的游戏规则。...

JSONP安全攻防技术

关于JSONPJSONP全称是JSONwithPadding,是基于JSON格式的为解决跨域请求资源而产生的解决方案。它的基本原理是利用HTML的元素标签,远程调用JSON文件来实现数据传递。如果...

大数据Doris(六):编译 Doris遇到的问题

编译Doris遇到的问题一、js_generator.cc:(.text+0xfc3c):undefinedreferenceto`well_known_types_js’查找Doris...

网页内嵌PDF获取的办法

最近女王大人为了通过某认证考试,交了2000RMB,官方居然没有给线下教材资料,直接给的是在线教材,教材是PDF的但是是内嵌在网页内,可惜却没有给具体的PDF地址,无法下载,看到女王大人一点点的截图保...

印度女孩被邻居家客人性骚扰,父亲上门警告,反被围殴致死

微信的规则进行了调整希望大家看完故事多点“在看”,喜欢的话也点个分享和赞这样事儿君的推送才能继续出现在你的订阅列表里才能继续跟大家分享每个开怀大笑或拍案惊奇的好故事啦~话说只要稍微关注新闻的人,应该...

下周重要财经数据日程一览 (1229-0103)

下周焦点全球制造业PMI美国消费者信心指数美国首申失业救济人数值得注意的是,下周一希腊还将举行第三轮总统选举需要谷歌日历同步及部分智能手机(安卓,iPhone)同步日历功能的朋友请点击此链接,数据公布...

PyTorch 深度学习实战(38):注意力机制全面解析

在上一篇文章中,我们探讨了分布式训练实战。本文将深入解析注意力机制的完整发展历程,从最初的Seq2Seq模型到革命性的Transformer架构。我们将使用PyTorch实现2个关键阶段的注意力机制变...

聊聊Spring AI的EmbeddingModel

序本文主要研究一下SpringAI的EmbeddingModelEmbeddingModelspring-ai-core/src/main/java/org/springframework/ai/e...

前端分享-少年了解过iframe么

iframe就像是HTML的「内嵌画布」,允许在页面中加载独立网页,如同在画布上叠加另一幅动态画卷。核心特性包括:独立上下文:每个iframe都拥有独立的DOM/CSS/JS环境(类似浏...