介绍
这篇文章主要介绍了节点如何实现批量下载文件到本地,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获。下面让小编带着大家一起了解一下。
<强>多文件分别处理强>
如果文件数量可控,对于下载出来的文件格式无要求,可以用最简单的办法,直接遍历文件,分别给每个下载链接创建一个单文件的下载或者iframe下载链接。
<强> zip包批量下载强>
虽然说可以遍历所有文件,然后去批量下载单个文件,但是这种体验毕竟不太好,最常见的做法是把批量的文件下载并打包到zip中。
所以首先的一个实现思路是:在代理服务里,先去遍历所有的文件去请求文件数据,然后压缩到zip包中,然后再把zip包返回给客户端。
这么做对于下载量数据比较小时好的,但是如果批量文件特别多特别大时,用户要等后台把所有的数据都请求到并且都打包都压缩包里,前端才能有反馈,这个时间可能会耗时很长,用户体验可能很差。
在同事的前期调研时,有说这里可以做一个流式的边压缩边下载的能力,大致的思路,是块回包,加流式压缩。
…… 让fileCounter=0; const zippedFilename=encodeURIComponent (downloadData.name); const=downloadData列表。列表| | []; const头={ & # 39;内容类型# 39;:& # 39;应用程序/x-zip& # 39; & # 39;编译指示# 39;:& # 39;公共# 39; & # 39;到期# 39;:& # 39;0 & # 39; & # 39;cache - control # 39;: & # 39;私人must-revalidate,任职考核=0,提前预支了=0 & # 39; & # 39;附加# 39;:& # 39;附件;文件名=? # 39;+ zippedFilename + & # 39;“& # 39; & # 39;Transfer-Encoding& # 39;: & # 39;分块# 39; & # 39;Content-Transfer-Encoding& # 39;: & # 39;二进制# 39; }; res.writeHead(200头); 档案。存储=true; archive.pipe (res); 列表。地图(项=比;{ fileCounter + +; 让生态基=request.get (item.downLoadUrl); 让name=item.fileName; 让长度=0; inStream.on(& # 39;响应# 39;,函数(awsData) { 档案。追加(生态基,{ 名称:名称 }); })内(& # 39;数据# 39;,功能(数据){ +=data.length长度; })内(& # 39;错误# 39;,函数(e) { 控制台。错误(名字+ & # 39;-error& # 39;, e); })内(& # 39;结束# 39;,函数(endData) { fileCounter——; 如果(fileCounter & lt;1){ archive.finalize (); } }); }); archive.on(& # 39;错误# 39;,函数(err) { 把犯错; }); archive.on(& # 39;完成# 39;,函数(err) { 返回res.end (); }); ……
当然中间还有些细节需要处理:比如中文文件名的问题,是否需要下载文件总大小做限制,是否会出现文件不存在等等情况。
感谢你能够认真阅读完这篇文章,希望小编分享节点如何实现批量下载文件到本地内容对大家有帮助,同时也希望大家多多支持,关注行业资讯频道,遇到问题就找,详细的解决方法等着你来学习!