Python并发系统学习路线第535讲_核心原理与实战案例详解【教程】

Python并发核心在于区分I/O与CPU密集型任务:threading适用于I/O(如HTTP请求),因GIL限制无法加速CPU密集型计算(如sum);asyncio需正确await协程,避免未执行警告;multiprocessing需注意Windows下spawn启动方式及进程间通信问题。

这个标题没有实际技术信息,无法对应到具体问题或知识点。Python 并发系统的学习,关键不在“第几讲”,而在于你当前卡在哪一步:

  • threading 里共享变量总出错,但又不确定要不要加 Lock
  • 是用 asyncio 写完发现 await 没生效,函数还是同步执行?
  • multiprocessing 启动子进程后,print 不输出、日志不落盘、甚至直接卡死?
  • 还是看懂了 GIL 的定义,但说不清为什么 requests.get() 多线程能提速,而 sum(range(10**7)) 却不能?

为什么 threading 改不了 CPU 密集型任务的性能?

因为 CPython 的 GIL(全局解释器锁)同一时刻只允许一个线程执行 Python 字节码。sumnumpy 纯计算(未释放 GIL 的情形)、加密哈希等操作,多线程不会加速,反而因线程切换增加开销。

  • 验证方式:用 time.perf_counter() 测单线程 vs 4 线程跑 sum(range(10**8)),后者通常更慢
  • 真正有效的替代是 multiprocessing 或调用已释放 GIL 的库(如 numpy 的大部分数组运算)
  • threading.Thread 只适合 I/O 密集场景:HTTP 请求、文件读写、数据库查询

asyncioRuntimeWarning: coroutine 'xxx' was never awaited 怎么办?

这是最常见的误用:把协程对象当普通函数调了,没用 await 或没丢进事件循环。

  • 错误写法:
    async def fetch(url): return requests.get(url)
    fetch("https://httpbin.org/get") # ← 忘了 await,返回的是 coroutine 对象,不执行
  • 正确写法(在 async 函数内):
    data = await fetch("https://httpbin.org/get")
  • 正确写法(在同步入口):
    import asyncio
    asyncio.run(fetch("https://httpbin.org/get"))
  • 注意:requests 是同步阻塞库,不能直接 await;要用 aiohttphttpx.AsyncClient

multiprocessing 子进程不打印、不写日志、主进程就卡住?

常见于 Windows 或使用 spawn 启动方式时,子进程无法继承主进程的标准输出/错误流,且未做显式初始化。

  • Windows 默认用 spawn,会重新导入主模块 → 必须用 if __name__ == "__main__": 包裹 Process 启动逻辑
  • 日志不输出:子进程的 sys.stdout 默认不缓冲,但有时被重定向失效;建议用 logging 并配置 handlers 到文件,或显式 flush=True
  • 卡住常见原因:Queue / Pipe 读写未配对、子进程抛异常未捕获、忘了 .join().close()
  • 调试技巧:子进程中加 print(os.getpid(), "started"),确认是否真启动

GIL 不是“bug”,而是 CPython 内存管理模型的权衡结果;asyncio 不是“高级 threading”,它是完全不同的调度模型;multiprocessing 的通信成本远高于内存共享——这些不是细节,是决定你代码能不能跑通、会不会偶发失败的关键分水岭。