正常来说,埋点的数据特点是大,非常大,一般会存 ES,以便后续方便计算分析。在对于写入操作频繁且大时,一般都会在前面加缓冲,来防止将存储服务 crash。Kafka 是个很适合的中间件。

    下图是网上的一个埋点数据处理架构图,将数据写到日志文件中,通过 Logstash 监听处理….,可以参考。
    image.png