如何为databricks集群设置警报?

问题描述 投票:0回答:1

我想在 Databricks 中设置集群使用警报。

类似:如果驱动程序节点的 CPU 利用率 > 80%,则发送警报。

可以为作业设置电子邮件通知,但我对特定于集群利用率的警报感兴趣。 我们正在使用工作流程进行结构化流处理,并在工作流程中设置电子邮件通知,但我们希望在集群利用率超过阈值时设置警报。

azure apache-spark databricks spark-structured-streaming data-engineering
1个回答
0
投票

你可以

  1. Spark 本身带有神经节。您可以设置神经节警报
  2. 使用 spark-monitoring 将 Spark 指标发送到 Azure Monitor。并设置指标警报
  3. 使用 spark-monitoringlog4j 将 Spark 日志发送到 Azure Monitor,并创建 日志警报。 Spark Logs 有心跳消息(取决于您的设置),您可以解析这些消息。
  4. 如果您想与 Databricks 绑定,那么您还可以编写一些自定义代码来以任何频率监控您想要的任何内容,并将其作为指标发送到 Lakehouse Monitoring 作为自定义指标,然后在之上构建 Monitor Alerts那个。

通常,您可以将 Spark 指标 发送到您想要的任何监控工具(Grafana、DataDog、Splunk、Azure Monitor...),然后构建警报。您的发送方式取决于使用的工具和其他环境。

© www.soinside.com 2019 - 2024. All rights reserved.