我从事日志集中化项目。
我正在与ELK合作收集/聚合/存储/可视化我的数据。我看到Kafka对于大量数据非常有用,但我无法从使用它的数据量中找到信息。
每天10千兆的日志?更少 ?
谢谢你的帮助。
让我们以两种方式解决这个问题。
特别是在ELK和Kafka方面,Logstash和Beats可以写作Kafka作为输出,并且有一个Kafka Connect connector for Elasticsearch
免责声明:我为Confluent工作。