官方文档:http://spark.apachecn.org/#/docs/6
1:识别每日的瓶颈,累计10日。
2:根据每天的动态流量,生成每天的最优方案,也计算10天的
保持实时性:
通过Kafka 作为消息中间件,将数据批量传到Spark
Spark 利用 spark streaming 进行批处理,并将结果储存到HDFS或Postgresql中
官方文档:http://spark.apachecn.org/#/docs/6
1:识别每日的瓶颈,累计10日。
2:根据每天的动态流量,生成每天的最优方案,也计算10天的
保持实时性:
通过Kafka 作为消息中间件,将数据批量传到Spark
Spark 利用 spark streaming 进行批处理,并将结果储存到HDFS或Postgresql中
让时间为你证明