需求

我最近在做一个需求:批量去往数据库里存储一些东西,数量可能一次性达到几百个,也就意味着我需要一次性往数据库里存储几百次,我是这么做的:

  1. const save = (data) => {
  2. // 数据库操作(Promise)
  3. return insert(data)
  4. }
  5. const datas = [...几百个数据]
  6. // 进行存储
  7. Promise.all(datas.map(save))

被呵斥

正当我觉得这个需求很轻松的时候。。在 Code Review 上,我被团队的大佬们给呵斥了一顿,理由是:存储的操作发生在服务器,服务器是很脆弱的,你一次性存储几百个,服务器崩了怎么办?
随后大佬们提出解决方案:控制并发,大佬们是真的强,感觉这种东西已经是大佬们的常规操作了。。

控制Promise.all并发

意思就是,比如我有几百个存储操作,我不能一次性去全部执行,而是要控制一次性只能执行10个操作,10个中有一个执行完了,就拿还没执行的操作补上去,就这样一直到这几百个操作全部执行完为止。。
其实很简单,可以直接用库,比如async-pool、es6-promise-pool、p-limit,只要是能用库的,我建议不要自己去写,因为不定因素很多,你自己写的肯定没有库写的好,你说呢~

简单实现

看到一位兄弟实现的挺不错的,链接:https://segmentfault.com/a/1190000016389127
这是async-pool这个库的核心源码

  1. function asyncPool(poolLimit, array, iteratorFn) {
  2. let i = 0;
  3. const ret = [];
  4. const executing = [];
  5. const enqueue = function () {
  6. // 边界处理,array为空数组
  7. if (i === array.length) {
  8. return Promise.resolve();
  9. }
  10. // 每调一次enqueue,初始化一个promise
  11. const item = array[i++];
  12. const p = Promise.resolve().then(() => iteratorFn(item, array));
  13. // 放入promises数组
  14. ret.push(p);
  15. // promise执行完毕,从executing数组中删除
  16. const e = p.then(() => executing.splice(executing.indexOf(e), 1));
  17. // 插入executing数字,表示正在执行的promise
  18. executing.push(e);
  19. // 使用Promise.rece,每当executing数组中promise数量低于poolLimit,就实例化新的promise并执行
  20. let r = Promise.resolve();
  21. if (executing.length >= poolLimit) {
  22. r = Promise.race(executing);
  23. }
  24. // 递归,直到遍历完array
  25. return r.then(() => enqueue());
  26. };
  27. return enqueue().then(() => Promise.all(ret));
  28. }

大概的逻辑可以总结为:

  • 从array第1个元素开始,初始化promise对象,同时用一个executing数组保存正在执行的promise
  • 不断初始化promise,直到达到poolLimt
  • 使用Promise.race,获得executing中promise的执行情况,当有一个promise执行完毕,继续初始化promise并放入executing中
  • 所有promise都执行完了,调用Promise.all返回

使用方式:

  1. const timeout = i => new Promise(resolve => setTimeout(() => resolve(i), i));
  2. return asyncPool(2, [1000, 5000, 3000, 2000], timeout).then(results => {
  3. ...
  4. });