官方文档:http://spark.apachecn.org/#/docs/6

    1:识别每日的瓶颈,累计10日。

    2:根据每天的动态流量,生成每天的最优方案,也计算10天的

    保持实时性:

    通过Kafka 作为消息中间件,将数据批量传到Spark

    Spark 利用 spark streaming 进行批处理,并将结果储存到HDFS或Postgresql中