文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

python-daemon日志记录的一个

2023-01-31 05:48

关注

最近用到了python-daemon这个库来使一个进程成为daemon进程,代码大致如下:

#!env python
#coding=utf-8
import logging
import multiprocessing
import logging.config

import daemon

from test import wrapper2

logger = None
pool   = None

def main():
    global pool
    logger.info('@@@@@@@@@@@@@@@@@@@@@@')
    pool.map(wrapper2, [1, 2, 3, 4, 5])
    logger.info('######################')

if __name__ == '__main__':
    global logger, pool
    logging.config.fileConfig("logging.cfg")
    logger = logging.getLogger('analysis.main')
    preserve_fds = [handler.stream for handler in logger.handlers]
    with daemon.DaemonContext(files_preserve = preserve_fds):
        logger.info('start main function')
        pool = multiprocessing.Pool(processes = 10)
        main()

test.py的代码如下:

#!env python
#coding=utf-8
import logging

logger = logging.getLogger('analysis.test')
def wrapper2(i):
    logger.info('wrapper2 %s' % (i))

然后就出现了一个问题:test.py中的logger.info('wrapper2 %s' % (i))的这一条日志记录死活也不会生成日志记录,一开始我以为是multiprocessing导致的,但是当我改成单进程形式也还是同样的问题,折腾了一阵没有找到原因,这个时候就只能静下心来看代码了(哈哈,这个好像一直是我的法宝)。
当我看到with daemon.DaemonContext(files_preserve = preserve_fds)这一行的时候我好像找到了原因,那就是除了files_preserve以外的文件IO都会在daemon中被关闭,我代码中只把analysis.main这个对应的日志文件IO给保留了,其它的日志文件IO都会被关闭。
为了验证我的想法,我把analysis.test对应的日志IO也保留,然后再运行就一切OK了,但是此时还没有完全结束,因为我的logging.cfg中配置了上十个的日志文件,我可不想在main中都一个个都过一遍然后再保留,有没有办法能够把logging.cfg中所有的日志文件都列出来呢?当然是有的,就是用loggers = logging.Logger.manager.loggerDict.values(),修改后的代码如下:

#!env python
#coding=utf-8
import logging
import multiprocessing
import logging.config

import daemon

from test import wrapper2

logger = None
pool   = None

def main():
    global pool
    logger.info('@@@@@@@@@@@@@@@@@@@@@@')
    pool.map(wrapper2, [1, 2, 3, 4, 5])
    logger.info('######################')

if __name__ == '__main__':
    global logger, pool
    logging.config.fileConfig("logging.cfg")
    logger = logging.getLogger('analysis.main')
    preserve_fds  = []
    loggers = logging.Logger.manager.loggerDict.values()
    for log in loggers:
        try:
            p_fds = [handler.stream for handler in log.handlers]
            preserve_fds.extend(p_fds)
        except Exception,e:
            pass
    with daemon.DaemonContext(files_preserve = preserve_fds):
        logger.info('start main function')
        pool = multiprocessing.Pool(processes = 10)
        main()
阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯