文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

使用Logstash收集MongoDB日志并通过Zabbix报警

2024-04-02 19:55

关注

一 应用场景描述

 在有些情况下,仅仅通过Zabbix去监控MongoDB的端口和各种状态还不够,MongoDB的日志监控也是很重要的。例如Mongos连接后端的Shard报SocketException错误等。


二 使用Logstash分析MongoDB日志

要记录慢查询首先需要开启慢查询记录功能

use jd05;

db.setProfilingLevel(1,50)
{ "was" : 1, "slowms" : 50, "ok" : 1 }

1表示只记录慢查询,慢于50毫秒的操作会被记录


如果写成2就会记录所有的操作,不建议在生产环境中使用,可以在开发环境中使用

db.setProfilingLevel(2)


在MongoDB的日志文件中会记录如下操作信息:

Mon Apr 27 16:45:01.853 [conn282854698] command jd01.$cmd command: { count: "player", query: { request_time: { $gte: 1430123701 } } } ntoreturn:1 keyUpdates:0 numYields: 7 locks(micros) r:640822 reslen:48 340ms



logstash配置文件shipper_mongodb.conf如下


input {
  file {
    path => "/data/app_data/mongodb/log/*.log"
    type => "mongodb"
    sincedb_path => "/dev/null"
       }
     }

filter {
  if [type] == "mongodb" {
     grok {
       match => ["message","(?m)%{GREEDYDATA} \[conn%{NUMBER:mongoConnection}\] %{WORD:mongoCommand} %{WORD:mongoDatabase}.%{NOTSPACE:mongoCollection} %{WORD}: \{ %{GREEDYDATA:mongoStatement} \} %{GREEDYDATA} %{NUMBER:mongoElapsedTime:int}ms"
]
       add_tag => "mongodb"
     }
     grok {
       match => ["message"," cursorid:%{NUMBER:mongoCursorId}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," ntoreturn:%{NUMBER:mongoNumberToReturn:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," ntoskip:%{NUMBER:mongoNumberToSkip:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," nscanned:%{NUMBER:mongoNumberScanned:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," scanAndOrder:%{NUMBER:mongoScanAndOrder:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," idhack:%{NUMBER:mongoIdHack:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," nmoved:%{NUMBER:mongoNumberMoved:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," nupdated:%{NUMBER:mongoNumberUpdated:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," keyUpdates:%{NUMBER:mongoKeyUpdates:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," numYields: %{NUMBER:mongoNumYields:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," locks\(micros\) r:%{NUMBER:mongoReadLocks:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," locks\(micros\) w:%{NUMBER:mongoWriteLocks:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," nreturned:%{NUMBER:mongoNumberReturned:int}"]
       add_tag => "mongo_profiling_data"
     }
     grok {
       match => ["message"," reslen:%{NUMBER:mongoResultLength:int}"]
       add_tag => "mongo_profiling_data"
     }
     if "mongo_profiling_data" in [tags] {
        mutate {
           remove_tag => "_grokparsefailure"
        }
     }
     if  "_grokparsefailure" in [tags] {
         grep {

            match => ["message","(Failed|error|SOCKET)"]
            add_tag => ["zabbix-sender"]
            add_field => [
                "zabbix_host","%{host}",
                "zabbix_item","mongo.error"
#                "send_field","%{message}"
                         ]


              }
         mutate {
                remove_tag => "_grokparsefailure"
              }
     }
  }
}






output {


   stdout {
    codec => "rubydebug"
          }

   zabbix {
    tags => "zabbix-sender"
    host => "zabbixserver"
    port => "10051"
    zabbix_sender => "/usr/local/zabbix/bin/zabbix_sender"
         }

   redis {
     host => "10.4.29.162"
     data_type => "list"
     key => "logstash"
         }
       }


配置文件分为几步:

使用logstash的file插件从/data/app_data/mongodb/log/目录中读取mongodb的日志文件然后对日志内容进行解析

如果日志文件中有类似cursorid,nreturned等关键字的就截取添加标签mongo_profiling_data用于以后进行数据统计

对于其他日志就过滤关键字看是否含有错误信息,如果有就通过zabbix发送报警。

注意使用zabbix插件发送报警的时候需要先进行过滤关键字,然后要有zabbix_host,zabbix_item,zabbix_field三个字段,zabbix_item的值需要和zabbix监控页面配置的item相对应。zabbix_field如果没有指定,默认就是发送这个message字段


添加zabbix的模板

使用Logstash收集MongoDB日志并通过Zabbix报警


使用Logstash收集MongoDB日志并通过Zabbix报警



同理可以通过zabbix对PHP-FPM,Nginx,Redis,MySQL等发送报警




然后要做的就是根据不同的字段定义不同的图表










参考文档:

http://techblog.holidaycheck.com/profiling-mongodb-with-logstash-and-kibana/

http://tech.rhealitycheck.com/visualizing-mongodb-profiling-data-using-logstash-and-kibana/

http://www.logstash.net/docs/1.4.2/outputs/zabbix


阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-数据库
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯