Zabbix對Kafka?topic積壓數據監控的問題(bug優化)

 更新時間:2022年07月01日 15:46:21   作者:木訥大叔愛運維  
這篇文章主要介紹了Zabbix對Kafka?topic積壓數據監控,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下

簡述

《Zabbix對Kafka topic積壓數據監控》一文的目的是通過Zabbix自動發現實現對多個消費者組的Topic及Partition的Lag進行監控。因在實際監控中發現有問題,為給感興趣的讀者不留坑,特通過此文對監控進行優化調整。

分區自動發現

# 未優化前的計算方式:
# 自動發現配置文件
vim consumer-groups.conf
#按消費者組(Group)|Topic格式,寫入自動發現配置文件
test-group|test
# 執行腳本自動發現指定消費者和topic的分區
bash consumer-groups.sh discovery
{
    "data": [
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"0" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"1" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"3" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"2" }
    ]
}

經過上線驗證,當自動發現配置文件只有一個test-group|test是沒有問題的,但當我們按需求再接入test-group|test1 (即test-group消費者組的第二個Topic)時,自動發現的結果如下:

# 未優化前的計算方式:
vim consumer-groups.conf
#按消費者組(Group)|Topic格式,寫入自動發現配置文件
test-group|test
test-group|test1

# 執行腳本自動發現指定消費者和topic的分區
bash consumer-groups.sh discovery
{
    "data": [
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"0" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"1" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"3" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"2" }
        { "{#GROUP}":"test-group", "{#TOPICP}":"test1", "{#PARTITION}":"0" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test2", "{#PARTITION}":"1" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test3", "{#PARTITION}":"2" }
    ]
}

了解Zabbix自動發現格式的同學會發現,每個Topic的Partition會出現',',這種格式是不符合規范,這就是導致我們的監控項會出現問題,因此我們需要進一步修改腳本。

經修改后,最終效果應該如下:

# 優化后的計算方式:
vim consumer-groups.conf
#按消費者組(Group)|Topic格式,寫入自動發現配置文件
test-group|test
test-group|test1

# 執行腳本自動發現指定消費者和topic的分區
bash consumer-groups.sh discovery
{
    "data": [
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"0" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"1" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"3" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test", "{#PARTITION}":"2" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test1", "{#PARTITION}":"0" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test1", "{#PARTITION}":"1" },
        { "{#GROUP}":"test-group", "{#TOPICP}":"test1", "{#PARTITION}":"2" }
    ]
}

獲取監控項“test-group/test/分區X”的Lag

經過自動發現后的數據,我們可以進一步獲取不同分區的lag

# 優化后的計算方式:
# test-group test分區0 lag
bash consumer-groups.sh lag test-group test 0
# test-group test分區1 lag
bash consumer-groups.sh lag test-group test 1
# test-group test1分區0 lag
bash consumer-groups.sh lag test-group test1 0

通過命令可以看到,我們的參數通過消費者組、Topic、Partition來獲取最終的lag值,如果不加消費者區分,那么無法區分不同消費者組和不同Topic相應的lag結果:

# 未優化前的計算方式:
# 獲取分區0 lag
bash consumer-groups.sh lag 0
# 獲取分區1 lag
bash consumer-groups.sh lag 1
# 獲取分區2 lag
bash consumer-groups.sh lag 2
# 獲取分區3 lag
bash consumer-groups.sh lag 3

最終優化后腳本

# 自動發現配置文件
vim consumer-groups.conf
#按消費者組(Group)|Topic格式,寫入自動發現配置文件
test-group|test
test-group|test1

# 自動發現、lag計算腳本
vim consumer-groups.sh
#!/bin/bash
##comment: 根據消費者組監控topic lag,進行監控告警
#配置文件說明
#消費者組|Topic
#test-group|test

#獲取topic 信息
cal_topic() {
    if [ $# -ne 2 ]; then
        echo "parameter num error, 讀取topic信息失敗"
        exit 1
    else
        /usr/local/kafka/bin/./kafka-consumer-groups.sh --bootstrap-server 192.168.3.55:9092 --describe --group $1 |grep -w $2|grep -v none 
    fi
}
#topic+分區自動發現
topic_discovery() {
    printf "{\n"
    printf "\t\"data\": [\n"
    m=0
    num=`cat /etc/zabbix/monitor_scripts/consumer-groups.conf|wc -l`
    for line in `cat /etc/zabbix/monitor_scripts/consumer-groups.conf`
    do  
        m=`expr $m + 1`
        group=`echo ${line} | awk -F'|' '{print $1}'`
        topic=`echo ${line} | awk -F'|' '{print $2}'`
        cal_topic $group $topic > /tmp/consumer-group-tmp
        count=`cat /tmp/consumer-group-tmp|wc -l`
        n=0
        while read line
        do
             n=`expr  $n + 1`
             #判斷最后一行
             if [ $n -eq $count ] && [ $m -eq $num ]; then
                 topicp=`echo $line | awk '{print $1}'`
                 partition=`echo $line  | awk '{print $2}'`
                 printf "\t\t{ \"{#GROUP}\":\"${group}\", \"{#TOPICP}\":\"${topicp}\", \"{#PARTITION}\":\"${partition}\" }\n"
             else
                 topicp=`echo $line | awk '{print $1}'`
                 partition=`echo $line  | awk '{print $2}'`
                 printf "\t\t{ \"{#GROUP}\":\"${group}\", \"{#TOPICP}\":\"${topicp}\", \"{#PARTITION}\":\"${partition}\" },\n"
             fi
        done < /tmp/consumer-group-tmp
    done
    printf "\t]\n"
    printf "}\n"
}


if [ $1 == "discovery" ]; then
    topic_discovery
elif [ $1 == "lag" ];then
    cal_topic $2 $3 > /tmp/consumer-group
    cat /tmp/consumer-group |awk -v t=$3 -v p=$4 '{if($1==t && $2==p ){print $5}}'
else
    echo "Usage: /data/scripts/consumer-group.sh discovery | lag"
fi

# 手動運行
## 自動發現
bash consumer-groups.sh discovery
## test-group test分區0 lag
bash consumer-groups.sh lag test-group test 0

接入Zabbix

1.Zabbix配置文件

vim userparameter_kafka.conf
UserParameter=topic_discovery,bash /data/scripts/consumer-groups.sh discovery
UserParameter=topic_log[*],bash /data/scripts/consumer-groups.sh lag "$1" "$2" "$3"

2.Zabbix自動發現

微信圖片_20220630221750.png

3.監控項配置

微信圖片_20220630221756.png

4.告警信息

告警主機:Kafka_192.168.3.55
主機IP:192.168.3.55
主機組:Kafka
告警時間:2022.03.21 00:23:10
告警等級:Average
告警信息:test-group/test/分區1:數據積壓100
告警項目:topic_lag[test-group,test,1]
問題詳情:
test-group/test/1: 62

到此這篇關于Zabbix對Kafka topic積壓數據監控的文章就介紹到這了,更多相關Zabbix積壓數據監控內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • zabbix 添加你需要監控的主機步驟詳解

    zabbix 添加你需要監控的主機步驟詳解

    這篇文章主要介紹了zabbix 添加你需要監控的主機,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-06-06
  • Zabbix3.0郵件報警配置

    Zabbix3.0郵件報警配置

    這篇文章主要介紹了Zabbix3.0配置郵件報警安裝方法,需要的朋友可以參考下
    2018-02-02
  • Zabbix系統端口監控狀態

    Zabbix系統端口監控狀態

    這篇文章主要介紹了Zabbix系統端口監控狀態,可以使用zabbix自帶的key進行監控
    2018-03-03
  • Zabbix3.4監控mongodb數據庫狀態的方法

    Zabbix3.4監控mongodb數據庫狀態的方法

    mongodb有db.serverStatus()命令,可以查看mongodb的運行狀態,那么zabbix就可以調用這個命令實現mongodb的監控。這篇文章主要介紹了Zabbix3.4監控mongodb狀態的方法,需要的朋友可以參考下
    2019-12-12
  • Zabbix監控方案-官方最新4.4版本【推薦】

    Zabbix監控方案-官方最新4.4版本【推薦】

    zabbix是一個基于WEB界面的提供分布式系統監視以及網絡監視功能的企業級的開源解決方案。這篇文章主要介紹了Zabbix監控方案-官方最新4.4版本,需要的朋友可以參考下
    2019-10-10
  • 重置Zabbix密碼的方法(一步到位)

    重置Zabbix密碼的方法(一步到位)

    由于長時間不通過賬號密碼的方式登錄zabbix,容易忘記密碼,小編今天通過轉換對應的md5直接在數據庫中重置密碼,對重置Zabbix密碼感興趣的朋友一起看看吧
    2020-02-02
  • Zabbix 動態執行監控采集腳本的實現原理

    Zabbix 動態執行監控采集腳本的實現原理

    這篇文章主要介紹了Zabbix 動態執行監控采集腳本的實現原理,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2021-03-03
  • 基于docker安裝zabbix的詳細教程

    基于docker安裝zabbix的詳細教程

    這篇文章主要介紹了基于docker安裝zabbix,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-06-06
  • 詳解ZABBIX監控ESXI主機的問題

    詳解ZABBIX監控ESXI主機的問題

    這篇文章主要介紹了ZABBIX監控ESXI主機,主要包括配置zabbix服務端和配置esxi的相關知識,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2022-06-06
  • 教你saltstack部署zabbix服務的方法

    教你saltstack部署zabbix服務的方法

    這篇文章主要介紹了saltstack部署zabbix服務的方法,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2021-11-11

最新評論

美丽人妻被按摩中出中文字幕