spark与mapreduceHadoop MapReduce采用了多进程模型,而Spark采用了多线程模型:spark与mapreduceHadoop MapReduce采用了多进程模型,而Spark采用了多线程模型:MapReduce 进行磁盘交互太多频繁的 i/o影响性能4、spark更加通用sparkstreaming模块、图计算GraphX等等;mapreduce只提供了map和reduce两种操作,流计算以及其他模块的支持比较缺乏。