据我所知,Spark将数据从每个节点的磁盘(HDFS)预加载到每个节点的RDD中进行计算。但是据我猜测,MapReduce必须从HDFS加载数据到内存,然后在内存中进行计算。那么..为什么Spark更受欢迎?只是因为MapReduce每次在MapReduce想要执行计算但Spark预加载数据时都会将数据加载到内存中?非常感谢。
据我所知,Spark将数据从每个节点的磁盘(HDFS)预加载到每个节点的RDD中进行计算。但据我猜想,MapReduce还必须将数据从HDFS加载到内存中,然后在内存中进行计算。所以....