多进程下logging日志乱序或丢失是因为FileHandler非进程安全,多个进程同时写文件导致覆盖或截断;推荐用QueueHandler+QueueListener由主进程统一落盘,或使用concurrent_log_handler加文件锁。

Python 多进程日志处理方案

多进程下 logging 为什么日志会乱序或丢失

因为默认的 FileHandler 不是进程安全的——多个子进程同时写同一个文件,底层 write() 调用可能被内核打断,导致内容覆盖、截断或错行。不是“没打印”,而是写坏了。

QueueHandler + QueueListener 是最稳的方案

让所有子进程把日志发到一个 multiprocessing.Queue,由主进程里的监听器统一落盘。这是官方推荐路径,也绕开了文件锁难题。

concurrent_log_handler 可以省事,但得知道它怎么锁

这个第三方包用文件级 flock 实现进程互斥,比自己手写队列轻量,适合快速落地,但有隐藏约束。

别在子进程中调用 logging.basicConfig()

它会偷偷新建 StreamHandler 并绑定到根 logger,不仅污染主进程配置,还可能和主进程的 QueueListener 冲突,导致日志重复或静默丢弃。

实际部署时最容易忽略的是子进程的 logger 名称一致性——名称不同就拿不到主进程配好的 QueueHandler,日志直接走默认的 NullHandler,悄无声息地消失。

本文转载于:互联网 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。