文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

开发 | 前端如何实现大文件快速上传

2024-12-24 18:10

关注

如何实现一个大文件上传,以及在上传中如何实现断点续传的功能呢?

本文将从零搭建前端和服务端,实现一个大文件上传和断点续传的 demo:

大文件上传

前端

前端大文件上传网上的大部分文章已经给出了解决方案,核心是利用 Blob.prototype.slice 方法,此方法和数组的 slice 方法相似,调用的 slice 方法可以返回原文件的某个切片

这样我们就可以根据预先设置好的切片最大数量将文件切分为一个个切片,然后借助 http 的可并发性,同时上传多个切片,这样从原本传一个大文件,变成了同时传多个小的文件切片,可以大大减少上传时间。

另外由于是并发,传输到服务端的顺序可能会发生变化,所以我们还需要给每个切片记录顺序。

服务端

服务端需要负责接受这些切片,并在接收到所有切片后合并切片。

这里又引伸出两个问题:

  1. 何时合并切片,即切片什么时候传输完成?
  2. 如何合并切片?

第一个问题需要前端进行配合,前端在每个切片中都携带切片最大数量的信息,当服务端接收到这个数量的切片时自动合并,也可以额外发一个请求主动通知服务端进行切片的合并。

第二个问题,具体如何合并切片呢?这里可以使用 NodeJS 的 API fs.appendFileSync,它可以同步地将数据追加到指定文件,也就是说,当服务端接收完所有切片后,可以先创建一个空文件,然后将所有切片逐步合并到这个文件中。

so,talk is cheap, show me the code,接着让我们用代码实现上面的思路吧。

前端部分

前端使用 Vue 作为开发框架,对界面没有太大要求,原生也可以,考虑到美观使用 Element-UI 作为 UI 框架。

上传控件

首先创建选择文件的控件,监听 change 事件以及上传按钮:

  1.  
  2.  
  3.  

请求逻辑

考虑到通用性,这里没有用第三方的请求库,而是用原生 XMLHttpRequest 做一层简单的封装来发请求:

  1. request({ 
  2.     url, 
  3.     method = "post"
  4.     data, 
  5.     headers = {}, 
  6.     requestList 
  7. }) { 
  8.     returnnewPromise(resolve => { 
  9.         const xhr = new XMLHttpRequest(); 
  10.         xhr.open(method, url); 
  11.         Object.keys(headers).forEach(key => 
  12.             xhr.setRequestHeader(key, headers[key]) 
  13.         ); 
  14.         xhr.send(data); 
  15.         xhr.onload = e => { 
  16.             resolve({ 
  17.                 data: e.target.response 
  18.             }); 
  19.         }; 
  20.     }); 

上传切片

接着实现比较重要的上传功能,上传需要做两件事:

  1. 对文件进行切片
  2. 将切片传输给服务端
  1.  
  2.  
  3.  

当点击上传按钮时,调用 createFileChunk 将文件切片,切片数量通过一个常量 Length 控制,这里设置为 10,即将文件分成 10 个切片上传。

createFileChunk 内使用 while 循环和 slice 方法将切片放入 fileChunkList 数组中返回。

在生成文件切片时,需要给每个切片一个标识作为 hash,这里暂时使用文件名 + 下标,这样后端可以知道当前切片是第几个切片,用于之后的合并切片。

随后调用 uploadChunks 上传所有的文件切片,将文件切片,切片 hash,以及文件名放入 FormData 中,再调用上一步的 request 函数返回一个 proimise,最后调用 Promise.all 并发上传所有的切片。

发送合并请求

这里使用整体思路中提到的第二种合并切片的方式,即前端主动通知服务端进行合并,所以前端还需要额外发请求,服务端接受到这个请求时主动合并切片

  1.  
  2.  
  3.  

服务端部分

简单使用 HTTP 模块搭建服务端:

  1. const http = require("http"); 
  2. const server = http.createServer(); 
  3.  
  4. server.on("request", async (req, res) => { 
  5.   res.setHeader("Access-Control-Allow-Origin""*"); 
  6.   res.setHeader("Access-Control-Allow-Headers""*"); 
  7.   if (req.method === "OPTIONS") { 
  8.     res.status = 200; 
  9.     res.end(); 
  10.     return
  11.   } 
  12. }); 
  13.  
  14. server.listen(3000, () => console.log("正在监听 3000 端口")); 

接受切片

使用 multiparty 包处理前端传来的 FormData,在 multiparty.parse 的回调中,files 参数保存了 FormData 中文件,fields 参数保存了 FormData 中非文件的字段:

  1. const http = require("http"); 
  2. const path = require("path"); 
  3. const fse = require("fs-extra"); 
  4. const multiparty = require("multiparty"); 
  5.  
  6. const server = http.createServer(); 
  7.   const UPLOAD_DIR = path.resolve(__dirname, "..""target"); // 大文件存储目录 
  8.  
  9. server.on("request", async (req, res) => { 
  10.   res.setHeader("Access-Control-Allow-Origin""*"); 
  11.   res.setHeader("Access-Control-Allow-Headers""*"); 
  12.   if (req.method === "OPTIONS") { 
  13.     res.status = 200; 
  14.     res.end(); 
  15.     return
  16.   } 
  17.  
  18.    const multipart = new multiparty.Form(); 
  19.  
  20.    multipart.parse(req, async (err, fields, files) => { 
  21.      if (err) { 
  22.        return
  23.      } 
  24.      const [chunk] = files.chunk; 
  25.      const [hash] = fields.hash; 
  26.      const [filename] = fields.filename; 
  27.      const chunkDir = `${UPLOAD_DIR}/${filename}`; 
  28.  
  29.     // 切片目录不存在,创建切片目录 
  30.      if (!fse.existsSync(chunkDir)) { 
  31.        await fse.mkdirs(chunkDir); 
  32.      } 
  33.  
  34.        // fs-extra 专用方法,类似 fs.rename 并且跨平台 
  35.        // fs-extra 的 rename 方法 windows 平台会有权限问题 
  36.        // https://github.com/meteor/meteor/issues/7852#issuecomment-255767835 
  37.        await fse.move(chunk.path, `${chunkDir}/${hash}`); 
  38.      res.end("received file chunk"); 
  39.    }); 
  40. }); 
  41.  
  42. server.listen(3000, () => console.log("正在监听 3000 端口")); 

查看 multiparty 处理后的 chunk 对象,path 是存储临时文件的路径,size 是临时文件大小,在 multiparty 文档中提到可以使用 fs.rename(由于我用的是 fs-extra,其 rename 方法在 Windows 系统上存在权限问题,所以换成了 fse.move) 重命名的方式移动临时文件,也就是文件切片。

在接受文件切片时,需要先创建存储切片的文件夹,由于前端在发送每个切片时额外携带了唯一值 hash,所以以 hash 作为文件名,将切片从临时路径移动切片文件夹中,最后的结果如下:

合并切片

在接收到前端发送的合并请求后,服务端将文件夹下的所有切片进行合并

  1. const http = require("http"); 
  2. const path = require("path"); 
  3. const fse = require("fs-extra"); 
  4.  
  5. const server = http.createServer(); 
  6. const UPLOAD_DIR = path.resolve(__dirname, "..""target"); // 大文件存储目录 
  7.  
  8.   const resolvePost = req => 
  9.     new Promise(resolve => { 
  10.       let chunk = ""
  11.       req.on("data", data => { 
  12.         chunk += data; 
  13.       }); 
  14.       req.on("end", () => { 
  15.         resolve(JSON.parse(chunk)); 
  16.       }); 
  17.     }); 
  18.  
  19.   // 合并切片 
  20.   const mergeFileChunk = async (filePath, filename) => { 
  21.     const chunkDir = `${UPLOAD_DIR}/${filename}`; 
  22.     const chunkPaths = await fse.readdir(chunkDir); 
  23.     await fse.writeFile(filePath, ""); 
  24.     chunkPaths.forEach(chunkPath => { 
  25.       fse.appendFileSync(filePath, fse.readFileSync(`${chunkDir}/${chunkPath}`)); 
  26.       fse.unlinkSync(`${chunkDir}/${chunkPath}`); 
  27.     }); 
  28.     fse.rmdirSync(chunkDir); // 合并后删除保存切片的目录 
  29.   }; 
  30.  
  31. server.on("request", async (req, res) => { 
  32.   res.setHeader("Access-Control-Allow-Origin""*"); 
  33.   res.setHeader("Access-Control-Allow-Headers""*"); 
  34.   if (req.method === "OPTIONS") { 
  35.     res.status = 200; 
  36.     res.end(); 
  37.     return
  38.   } 
  39.  
  40.     if (req.url === "/merge") { 
  41.       const data = await resolvePost(req); 
  42.       const { filename } = data; 
  43.       const filePath = `${UPLOAD_DIR}/${filename}`; 
  44.       await mergeFileChunk(filePath, filename); 
  45.       res.end
  46.         JSON.stringify({ 
  47.           code: 0, 
  48.           message: "file merged success" 
  49.         }) 
  50.       ); 
  51.     } 
  52.  
  53. }); 
  54.  
  55. server.listen(3000, () => console.log("正在监听 3000 端口")); 

由于前端在发送合并请求时会携带文件名,服务端根据文件名可以找到上一步创建的切片文件夹。

接着使用 fs.writeFileSync 先创建一个空文件,这个空文件的文件名就是切片文件夹名 + 后缀名组合而成,随后通过 fs.appendFileSync 从切片文件夹中不断将切片合并到空文件中,每次合并完成后删除这个切片,等所有切片都合并完毕后最后删除切片文件夹。

至此一个简单的大文件上传就完成了,接下来我们在此基础上扩展一些额外的功能。

显示上传进度条

上传进度分两种,一个是每个切片的上传进度,另一个是整个文件的上传进度,而整个文件的上传进度是基于每个切片上传进度计算而来,所以我们需要先实现切片的上传进度。

切片进度条

XMLHttpRequest 原生支持上传进度的监听,只需要监听 upload.onprogress 即可,我们在原来的 request 基础上传入 onProgress 参数,给 XMLHttpRequest 注册监听事件:

  1. // xhr 
  2.    request({ 
  3.      url, 
  4.      method = "post"
  5.      data, 
  6.      headers = {}, 
  7.       onProgress = e => e, 
  8.      requestList 
  9.    }) { 
  10.      return new Promise(resolve => { 
  11.        const xhr = new XMLHttpRequest(); 
  12.         xhr.upload.onprogress = onProgress; 
  13.        xhr.open(method, url); 
  14.        Object.keys(headers).forEach(key => 
  15.          xhr.setRequestHeader(key, headers[key]) 
  16.        ); 
  17.        xhr.send(data); 
  18.        xhr.onload = e => { 
  19.          resolve({ 
  20.            data: e.target.response 
  21.          }); 
  22.        }; 
  23.      }); 
  24.    } 

由于每个切片都需要触发独立的监听事件,所以还需要一个工厂函数,根据传入的切片返回不同的监听函数。

在原先的前端上传逻辑中新增监听函数部分:

  1. // 上传切片,同时过滤已上传的切片 
  2. async uploadChunks(uploadedList = []) { 
  3.   const requestList = this.data 
  4.     .map(({ chunk }) => { 
  5.       const formData = new FormData(); 
  6.       formData.append("chunk", chunk); 
  7.       formData.append("filename", this.container.file.name); 
  8.       return { formData }; 
  9.     }) 
  10.     .map(async ({ formData }) => 
  11.       this.request({ 
  12.         url: "http://localhost:3000"
  13.         data: formData, 
  14.         onProgress: this.createProgressHandler(this.data[index]), 
  15.       }) 
  16.     ); 
  17.   await Promise.all(requestList); 
  18.    // 合并切片 
  19.   await this.mergeRequest(); 
  20. }, 
  21. async handleUpload() { 
  22.   if (!this.container.file) return
  23.   const fileChunkList = this.createFileChunk(this.container.file); 
  24.   this.data = fileChunkList.map(({ file },index) => ({ 
  25.     chunk: file, 
  26.     index
  27.     hash: this.container.file.name + "-" + index 
  28.     percentage:0 
  29.   })); 
  30.   await this.uploadChunks(); 
  31. createProgressHandler(item) { 
  32.    return e => { 
  33.       item.percentage = parseInt(String((e.loaded / e.total) * 100)); 
  34.    }; 
  35.  } 

每个切片在上传时都会通过监听函数更新 data 数组对应元素的 percentage 属性,之后把将 data 数组放到视图中展示即可。

文件进度条

将每个切片已上传的部分累加,除以整个文件的大小,就能得出当前文件的上传进度,所以这里使用 Vue 计算属性:

  1. computed: { 
  2.      uploadPercentage() { 
  3.         if (!this.container.file || !this.data.length) return0; 
  4.         const loaded = this.data 
  5.           .map(item => item.size * item.percentage) 
  6.           .reduce((acc, cur) => acc + cur); 
  7.         returnparseInt((loaded / this.container.file.size).toFixed(2)); 
  8.       } 

最终效果如下:

断点续传

断点续传的原理在于前端/服务端需要记住已上传的切片,这样下次上传就可以跳过之前已上传的部分,有两种方案实现记忆的功能:

  1. 前端使用 localStorage 记录已上传的切片 hash。
  2. 服务端保存已上传的切片 hash,前端每次上传前向服务端获取已上传的切片。

第一种是前端的解决方案,第二种是服务端,而前端方案有一个缺陷,如果换了个浏览器就失去了记忆的效果,所以这里选取后者。

生成 hash

无论是前端还是服务端,都必须要生成文件和切片的 hash,之前我们使用文件名 + 切片下标作为切片 hash,这样做文件名一旦修改就失去了效果,而事实上只要文件内容不变,hash 就不应该变化,所以正确的做法是根据文件内容生成 hash,所以我们需要修改一下 hash 的生成规则。

这里用到另一个库 spark-md5,它可以根据文件内容计算出文件的 hash 值,另外考虑到如果上传一个超大文件,读取文件内容计算 hash 是非常耗费时间的,并且会引起 UI 的阻塞,导致页面假死状态,所以我们使用 web-workerworker 线程计算 hash,这样用户仍可以在主界面正常的交互。

由于实例化 web-worker 时,参数是一个 JavaScript 文件路径,且不能跨域。所以我们单独创建一个 hash.js 文件放在 public 目录下,另外在 worker 中也是不允许访问 DOM 的,但它提供了importScripts 函数用于导入外部脚本,通过它导入 spark-md5。

  1. // /public/hash.js 
  2. self.importScripts("/spark-md5.min.js"); // 导入脚本 
  3.  
  4. // 生成文件 hash 
  5. self.onmessage = e => { 
  6.   const { fileChunkList } = e.data; 
  7.   const spark = new self.SparkMD5.ArrayBuffer(); 
  8.   let percentage = 0; 
  9.   let count = 0; 
  10.   const loadNext = index => { 
  11.     const reader = new FileReader(); 
  12.     reader.readAsArrayBuffer(fileChunkList[index].file); 
  13.     reader.onload = e => { 
  14.       count++; 
  15.       spark.append(e.target.result); 
  16.       if (count === fileChunkList.length) { 
  17.         self.postMessage({ 
  18.           percentage: 100, 
  19.           hash: spark.end() 
  20.         }); 
  21.         self.close(); 
  22.       } else { 
  23.         percentage += 100 / fileChunkList.length; 
  24.         self.postMessage({ 
  25.           percentage 
  26.         }); 
  27.         // 递归计算下一个切片 
  28.         loadNext(count); 
  29.       } 
  30.     }; 
  31.   }; 
  32.   loadNext(0); 
  33. }; 

worker 线程中,接受文件切片 fileChunkList,利用 FileReader 读取每个切片的 ArrayBuffer 并不断传入 spark-md5 中,每计算完一个切片通过 postMessage 向主线程发送一个进度事件,全部完成后将最终的 hash 发送给主线程。

spark-md5 需要根据所有切片才能算出一个 hash 值,不能直接将整个文件放入计算,否则即使不同文件也会有相同的 hash,具体可以看官方文档。

spark-md5[1]

接着编写主线程与 worker 线程通讯的逻辑。

  1. // 生成文件 hash(web-worker) 
  2.  calculateHash(fileChunkList) { 
  3.    return new Promise(resolve => { 
  4.     // 添加 worker 属性 
  5.      this.container.worker = new Worker("/hash.js"); 
  6.      this.container.worker.postMessage({ fileChunkList }); 
  7.      this.container.worker.onmessage = e => { 
  8.        const { percentage, hash } = e.data; 
  9.        this.hashPercentage = percentage; 
  10.        if (hash) { 
  11.          resolve(hash); 
  12.        } 
  13.      }; 
  14.    }); 
  15. }, 
  16. async handleUpload() { 
  17.   if (!this.container.file) return
  18.   const fileChunkList = this.createFileChunk(this.container.file); 
  19.   this.container.hash = await this.calculateHash(fileChunkList); 
  20.   this.data = fileChunkList.map(({ file },index) => ({ 
  21.     fileHash: this.container.hash, 
  22.     chunk: file, 
  23.     hash: this.container.file.name + "-" + index, // 文件名 + 数组下标 
  24.     percentage:0 
  25.   })); 
  26.   await this.uploadChunks(); 

主线程使用 postMessage 给 worker 线程传入所有切片 fileChunkList,并监听 worker 线程发出的 postMessage 事件拿到文件 hash。

加上显示计算 hash 的进度条,看起来像这样:

至此前端需要将之前用文件名作为 hash 的地方改写为 workder 返回的这个 hash。

服务端则使用 hash 作为切片文件夹名,hash + 下标作为切片名,hash + 扩展名作为文件名,没有新增的逻辑。

文件秒传

在实现断点续传前先简单介绍一下文件秒传。

所谓的文件秒传,即在服务端已经存在了上传的资源,所以当用户再次上传时会直接提示上传成功。

文件秒传需要依赖上一步生成的 hash,即在上传前,先计算出文件 hash,并把 hash 发送给服务端进行验证,由于 hash 的唯一性,所以一旦服务端能找到 hash 相同的文件,则直接返回上传成功的信息即可。

  1. async verifyUpload(filename, fileHash) { 
  2.     const { data } = await this.request({ 
  3.       url: "http://localhost:3000/verify"
  4.       headers: { 
  5.         "content-type""application/json" 
  6.       }, 
  7.       data: JSON.stringify({ 
  8.         filename, 
  9.         fileHash 
  10.       }) 
  11.     }); 
  12.     return JSON.parse(data); 
  13.   }, 
  14. sync handleUpload() { 
  15.   if (!this.container.file) return
  16.   const fileChunkList = this.createFileChunk(this.container.file); 
  17.   this.container.hash = await this.calculateHash(fileChunkList); 
  18.   const { shouldUpload } = await this.verifyUpload( 
  19.     this.container.file.name
  20.     this.container.hash 
  21.   ); 
  22.   if (!shouldUpload) { 
  23.     this.$message.success("秒传:上传成功"); 
  24.     return
  25.  } 
  26.  this.data = fileChunkList.map(({ file }, index) => ({ 
  27.     fileHash: this.container.hash, 
  28.     index
  29.     hash: this.container.hash + "-" + index
  30.     chunk: file, 
  31.     percentage: 0 
  32.   })); 
  33.   await this.uploadChunks(); 

秒传其实就是给用户看的障眼法,实质上根本没有上传。就像下面这行代码 :)

服务端的逻辑非常简单,新增一个验证接口,验证文件是否存在即可。

  1.   const extractExt = filename => 
  2.    filename.slice(filename.lastIndexOf("."), filename.length); // 提取后缀名 
  3. const UPLOAD_DIR = path.resolve(__dirname, "..""target"); // 大文件存储目录 
  4.  
  5. const resolvePost = req => 
  6.   new Promise(resolve => { 
  7.     let chunk = ""
  8.     req.on("data", data => { 
  9.       chunk += data; 
  10.     }); 
  11.     req.on("end", () => { 
  12.       resolve(JSON.parse(chunk)); 
  13.     }); 
  14.   }); 
  15.  
  16. server.on("request", async (req, res) => { 
  17.   if (req.url === "/verify") { 
  18.      const data = await resolvePost(req); 
  19.      const { fileHash, filename } = data; 
  20.      const ext = extractExt(filename); 
  21.      const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`; 
  22.      if (fse.existsSync(filePath)) { 
  23.        res.end
  24.          JSON.stringify({ 
  25.            shouldUpload: false 
  26.          }) 
  27.        ); 
  28.      } else { 
  29.        res.end
  30.          JSON.stringify({ 
  31.            shouldUpload: true 
  32.          }) 
  33.        ); 
  34.      } 
  35.   } 
  36. }); 
  37. server.listen(3000, () => console.log("正在监听 3000 端口")); 

暂停上传

讲完了生成 hash 和文件秒传,回到断点续传。

断点续传顾名思义即断点 + 续传,所以我们第一步先实现"断点",也就是暂停上传。

原理是使用 XMLHttpRequest 的 abort 方法,可以取消一个 xhr 请求的发送,为此我们需要将上传每个切片的 xhr 对象保存起来,我们再改造一下 request 方法。

  1. request({ 
  2.    url, 
  3.    method = "post"
  4.    data, 
  5.    headers = {}, 
  6.    onProgress = e => e, 
  7.    requestList 
  8.  }) { 
  9.    return new Promise(resolve => { 
  10.      const xhr = new XMLHttpRequest(); 
  11.      xhr.upload.onprogress = onProgress; 
  12.      xhr.open(method, url); 
  13.      Object.keys(headers).forEach(key => 
  14.        xhr.setRequestHeader(key, headers[key]) 
  15.      ); 
  16.      xhr.send(data); 
  17.      xhr.onload = e => { 
  18.         // 将请求成功的 xhr 从列表中删除 
  19.         if (requestList) { 
  20.           const xhrIndex = requestList.findIndex(item => item === xhr); 
  21.           requestList.splice(xhrIndex, 1); 
  22.         } 
  23.        resolve({ 
  24.          data: e.target.response 
  25.        }); 
  26.      }; 
  27.       // 暴露当前 xhr 给外部 
  28.       requestList?.push(xhr); 
  29.    }); 
  30.  }, 

这样在上传切片时传入 requestList 数组作为参数,request 方法就会将所有的 xhr 保存在数组中了。

每当一个切片上传成功时,将对应的 xhr 从 requestList 中删除,所以 requestList 中只保存正在上传切片的 xhr。

之后新建一个暂停按钮,当点击按钮时,调用保存在 requestList 中 xhr 的 abort 方法,即取消并清空所有正在上传的切片。

  1. handlePause() { 
  2.     this.requestList.forEach(xhr => xhr?.abort()); 
  3.     this.requestList = []; 

点击暂停按钮可以看到 xhr 都被取消了。

恢复上传

之前在介绍断点续传的时提到使用第二种服务端存储的方式实现续传。

由于当文件切片上传后,服务端会建立一个文件夹存储所有上传的切片,所以每次前端上传前可以调用一个接口,服务端将已上传的切片的切片名返回,前端再跳过这些已经上传切片,这样就实现了"续传"的效果。

而这个接口可以和之前秒传的验证接口合并,前端每次上传前发送一个验证的请求,返回两种结果:

  1. 服务端已存在该文件,不需要再次上传。
  2. 服务端不存在该文件或者已上传部分文件切片,通知前端进行上传,并把已上传的文件切片返回给前端。

所以我们改造一下之前文件秒传的服务端验证接口:

  1. const extractExt = filename => 
  2.   filename.slice(filename.lastIndexOf("."), filename.length); // 提取后缀名 
  3. const UPLOAD_DIR = path.resolve(__dirname, "..""target"); // 大文件存储目录 
  4.  
  5. const resolvePost = req => 
  6.   new Promise(resolve => { 
  7.     let chunk = ""
  8.     req.on("data", data => { 
  9.       chunk += data; 
  10.     }); 
  11.     req.on("end", () => { 
  12.       resolve(JSON.parse(chunk)); 
  13.     }); 
  14.   }); 
  15.  
  16.    // 返回已经上传切片名列表 
  17.   const createUploadedList = async fileHash => 
  18.     fse.existsSync(`${UPLOAD_DIR}/${fileHash}`) 
  19.      ? await fse.readdir(`${UPLOAD_DIR}/${fileHash}`) 
  20.      : []; 
  21.  
  22. server.on("request", async (req, res) => { 
  23.   if (req.url === "/verify") { 
  24.     const data = await resolvePost(req); 
  25.     const { fileHash, filename } = data; 
  26.     const ext = extractExt(filename); 
  27.     const filePath = `${UPLOAD_DIR}/${fileHash}${ext}`; 
  28.     if (fse.existsSync(filePath)) { 
  29.       res.end
  30.         JSON.stringify({ 
  31.           shouldUpload: false 
  32.         }) 
  33.       ); 
  34.     } else { 
  35.       res.end
  36.         JSON.stringify({ 
  37.           shouldUpload: true, 
  38.           uploadedList: await createUploadedList(fileHash) 
  39.         }) 
  40.       ); 
  41.     } 
  42.   } 
  43. }); 
  44. server.listen(3000, () => console.log("正在监听 3000 端口")); 

接着回到前端,前端有两个地方需要调用验证的接口:

  1. 点击上传时,检查是否需要上传和已上传的切片。
  2. 点击暂停后的恢复上传,返回已上传的切片。

新增恢复按钮并改造原来上传切片的逻辑:

  1.  
  2.  
  3.     async handleResume() { 
  4.        const { uploadedList } = await this.verifyUpload( 
  5.          this.container.file.name
  6.          this.container.hash 
  7.        ); 
  8.        await this.uploadChunks(uploadedList); 
  9.     }, 
  10.     async handleUpload() { 
  11.       if (!this.container.file) return
  12.       const fileChunkList = this.createFileChunk(this.container.file); 
  13.       this.container.hash = await this.calculateHash(fileChunkList); 
  14.  
  15.       const { shouldUpload, uploadedList } = await this.verifyUpload( 
  16.         this.container.file.name
  17.         this.container.hash 
  18.       ); 
  19.       if (!shouldUpload) { 
  20.         this.$message.success("秒传:上传成功"); 
  21.         return
  22.       } 
  23.  
  24.       this.data = fileChunkList.map(({ file }, index) => ({ 
  25.         fileHash: this.container.hash, 
  26.         index
  27.         hash: this.container.hash + "-" + index
  28.         chunk: file, 
  29.         percentage: 0 
  30.       })); 
  31.  
  32.        await this.uploadChunks(uploadedList); 
  33.     }, 
  34.    // 上传切片,同时过滤已上传的切片 
  35.     async uploadChunks(uploadedList = []) { 
  36.       const requestList = this.data 
  37.          .filter(({ hash }) => !uploadedList.includes(hash)) 
  38.         .map(({ chunk, hash, index }) => { 
  39.           const formData = new FormData(); 
  40.           formData.append("chunk", chunk); 
  41.           formData.append("hash", hash); 
  42.           formData.append("filename", this.container.file.name); 
  43.           formData.append("fileHash", this.container.hash); 
  44.           return { formData, index }; 
  45.         }) 
  46.         .map(async ({ formData, index }) => 
  47.           this.request({ 
  48.             url: "http://localhost:3000"
  49.             data: formData, 
  50.             onProgress: this.createProgressHandler(this.data[index]), 
  51.             requestList: this.requestList 
  52.           }) 
  53.         ); 
  54.       await Promise.all(requestList); 
  55.       // 之前上传的切片数量 + 本次上传的切片数量 = 所有切片数量时 
  56.       // 合并切片 
  57.        if (uploadedList.length + requestList.length === this.data.length) { 
  58.          await this.mergeRequest(); 
  59.        } 
  60.     } 

这里给原来上传切片的函数新增 uploadedList 参数,即上图中服务端返回的切片名列表,通过 filter 过滤掉已上传的切片,并且由于新增了已上传的部分,所以之前合并接口的触发条件做了一些改动。

到这里断点续传的功能基本完成了。

进度条改进

虽然实现了断点续传,但还需要修改一下进度条的显示规则,否则在暂停上传/接收到已上传切片时的进度条会出现偏差。

切片进度条

由于在点击上传/恢复上传时,会调用验证接口返回已上传的切片,所以需要将已上传切片的进度变成 100%。

  1. async handleUpload() { 
  2.      if (!this.container.file) return
  3.      const fileChunkList = this.createFileChunk(this.container.file); 
  4.      this.container.hash = await this.calculateHash(fileChunkList); 
  5.      const { shouldUpload, uploadedList } = await this.verifyUpload( 
  6.        this.container.file.name
  7.        this.container.hash 
  8.      ); 
  9.      if (!shouldUpload) { 
  10.        this.$message.success("秒传:上传成功"); 
  11.        return
  12.      } 
  13.      this.data = fileChunkList.map(({ file }, index) => ({ 
  14.        fileHash: this.container.hash, 
  15.        index
  16.        hash: this.container.hash + "-" + index
  17.        chunk: file, 
  18.        percentage: uploadedList.includes(index) ? 100 : 0 
  19.      })); 
  20.      await this.uploadChunks(uploadedList); 
  21.    }, 

uploadedList 会返回已上传的切片,在遍历所有切片时判断当前切片是否在已上传列表里即可。

文件进度条

之前说到文件进度条是一个计算属性,根据所有切片的上传进度计算而来,这就遇到了一个问题:

点击暂停会取消并清空切片的 xhr 请求,此时如果已经上传了一部分,就会发现文件进度条有倒退的现象:

当点击恢复时,由于重新创建了 xhr 导致切片进度清零,所以总进度条就会倒退。

解决方案是创建一个""的进度条,这个假进度条基于文件进度条,但只会停止和增加,然后给用户展示这个假的进度条

这里我们使用 Vue 的监听属性:

  1. data: () => ({ 
  2.     fakeUploadPercentage: 0 
  3.  }), 
  4.  computed: { 
  5.    uploadPercentage() { 
  6.      if (!this.container.file || !this.data.length) return 0; 
  7.      const loaded = this.data 
  8.        .map(item => item.size * item.percentage) 
  9.        .reduce((acc, cur) => acc + cur); 
  10.      return parseInt((loaded / this.container.file.size).toFixed(2)); 
  11.    } 
  12.  }, 
  13.  watch: { 
  14.     uploadPercentage(now) { 
  15.       if (now > this.fakeUploadPercentage) { 
  16.         this.fakeUploadPercentage = now; 
  17.       } 
  18.    } 
  19.  }, 

当 uploadPercentage 即真的文件进度条增加时,fakeUploadPercentage 也增加,一旦文件进度条后退,假的进度条只需停止即可。

至此一个大文件上传 + 断点续传的解决方案就完成了

总结

大文件上传:

断点续传:

源代码

源代码增加了一些按钮的状态,交互更加友好,文章表达比较晦涩的地方可以跳转到源代码查看。

file-upload[2]

 

来源:今日头条内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯