[kubernetes节点在使用rook卷时不断重启

问题描述 投票:0回答:1

几天前,当节点不断重启时,我遇到了问题

我的堆栈:

  • 1个主设备,使用kubeadm(v1.17.1-00)构建的2个工人k8s-集群

  • Ubuntu 18.04 x86_64 4.15.0-74-generic

  • Flannel cni插件(v0.11.0)

  • Rook(v1.2)cephfs用于存储。 Ceph部署在我的应用程序所在的同一集群中

我能够运行ceph集群,但是当我尝试部署我的应用程序时,即使用我的rook-volumes,突然我的豆荚开始死掉了

使用kubectl describe pods/name命令时收到此消息:

Pod sandbox changed, it will be killed and re-created

在k8s事件中,我得到了:

<Node name> has been rebooted

一段时间后,节点恢复了生命,但最终在2-3分钟内死亡。

我试图排空节点并重新连接到群集,但此后另一个节点出现此错误。

我通过命令journalctl -p 3查看了故障节点的系统错误日志。

[发现,日志中充满了以下消息:kernel: cache_from_obj: Wrong slab cache. inode_cache but object is from ceph_inode_info

在搜索了这个问题之后,我发现了这个问题:https://github.com/coreos/bugs/issues/2616

原来,cephfs不适用于某些版本的Linux内核!!对我来说,这些都不起作用:

  • Ubuntu 19.04 x86_64 5.0.0-32-generic
  • Ubuntu 18.04 x86_64 4.15.0-74-generic
kubernetes linux-kernel ceph cephfs rook-storage
1个回答
0
投票

解决方案

Cephfs不适用于某些版本的Linux内核。升级您的内核。我终于在Ubuntu 18.04 x86_64 5.0.0-38-generic上运行了它]

Github问题,这对我有所帮助:https://github.com/coreos/bugs/issues/2616

这确实是一个棘手的问题,我一直在努力寻找解决方案,并且花了很多时间试图了解正在发生的事情。希望这些信息对您有所帮助,因为google上没有太多信息。

© www.soinside.com 2019 - 2024. All rights reserved.