Kafka服务器节点因“打开的文件过多”错误而关闭

问题描述 投票:0回答:1

我们使用的是3个节点的Kafka群集,共有151个主题,每个主题都有1个分区。并且我们已经配置了复制因子= 3。当我们启动kafka经纪人时,出现以下错误:

错误接受连接(kafka.network.Acceptor)时出错

java.io.IOException:打开的文件太多

apache-kafka kafka-consumer-api apache-kafka-connect kafka-producer-api
1个回答
0
投票

外观类似是由于文件句柄数量较少。

您可以如下检查文件描述符限制吗?>

ulimit -n

尝试将打开的文件描述符更改为更高的值:

ulimit -n <noOfFiles>

您可以获得允许的最大打开文件数:cat /proc/sys/fs/file-max

© www.soinside.com 2019 - 2024. All rights reserved.