媒体出版日志系统分析

大家对日志文件是怎么处理的?

应用 的日志,少则几G,多则几十G,人工监控几乎是不可能完成的任务。日志中包含了很多有用的数据,大家是如何处理的?集中到一起集中分析还是其他?

参与12

3同行回答

hello_unixhello_unix信息技术经理西安
这要看什么日志文件,它的重要性,增长速度如何,都得权衡。比如java的coredump文件就比较大,用处也不大,当然跟系统运行状况有关,如果刚上线,问题还在处理,coredump文件还是要压缩一下发给开发人员,可以用脚本自动处理,免得这东西撑爆文件系统。...显示全部

这要看什么日志文件,它的重要性,增长速度如何,都得权衡。

比如java的coredump文件就比较大,用处也不大,当然跟系统运行状况有关,如果刚上线,问题还在处理,coredump文件还是要压缩一下发给开发人员,可以用脚本自动处理,免得这东西撑爆文件系统。

收起
互联网服务 · 2015-12-04
浏览1661
热心冰块热心冰块项目经理浪潮INSPUR
现成的我不知道,我能想到的方法是Python用正则表达式过滤,然后结果封装成JSON发给Zabbix去呈现显示全部

现成的我不知道,我能想到的方法是Python用正则表达式过滤,然后结果封装成JSON发给Zabbix去呈现

收起
系统集成 · 2015-12-04
浏览1572
shalashala其它aaaa

splunk

收起
银行 · 2015-12-04
浏览1468

提问者

青山松
系统运维工程师传媒
擅长领域: 服务器AIXUnix

问题来自

问题状态

  • 发布时间:2015-12-04
  • 关注会员:4 人
  • 问题浏览:5704
  • 最近回答:2015-12-04
  • X社区推广