百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

在Python中使用Asyncio系统(3-6)优雅地开启和关闭协程

off999 2025-04-27 15:36 11 浏览 0 评论

优雅地开启和关闭协程

大多数基于异步的程序都是基于网络的并且长期运行的应用程序。这个领域在处理如何启动和关闭的过程中有惊人的复杂性。

在这两个操作中,启动一般比较简单。启动异步应用程序的标准方式是有一个main()协程函数,并用asyncio.run()调用它,就像本章开头的示例3-2所演示的那样。

一般来说,启动都会相当的简单直接;比如前面描述的服务器案例,你可能在文档中不止一次的阅读到它。我们待会儿要在后面的章节简要通过代码来介绍一个服务器启动的演示。

关闭程序一般更复杂一些。为了关闭,我之前提到了在asyncio.run()中的准备步骤。当async def main()函数退出时,要采取以下操作:

  1. 收集所有仍在排队的任务对象(如果有的话)。
  2. 取消这些任务(这个步骤会在每个运行的协程中抛出CancelledError异常,就是你在协程函数的代码里使用try/except来处理的那个异常)。
  3. 把所有这些任务放到一个组任务中。
  4. 在组任务中使用run_until_complete()等待所有这些任务完成,然后抛出或者处理CancelledError。

asyncio.run()为你执行上面提到的这些操作,但尽管有这些帮助,在构建最初几个重要的asyncio应用程序的过程中,仍将尝试在关闭期间清除错误消息,就像这样:“Task was destroyed but it is pending!”。发生这种情况是因为应用程序没等到执行完前面的一个或几个步骤就关闭主程序了。例3-29是一个引发这个烦人错误的示例。

示例 3-29 未决任务的销毁程序

# taskwarning.py
import asyncio


async def f(delay):
  await asyncio.sleep(delay)


loop = asyncio.get_event_loop()
t1 = loop.create_task(f(1))  
t2 = loop.create_task(f(2))  
loop.run_until_complete(t1) 
loop.close()
  • (L8)任务1将运行1秒。
  • (L9)任务2将运行2秒。
  • (L10)只能在任务1完成前才运行。

运行这段代码将会有以下输出:

$ python taskwarning.py
Task was destroyed but it is pending!
task: <Task pending coro=<f() done, defined at [...snip...]>

这个错误信息告诉你当循环关闭时,有些任务还没有完成。我们想要避免这种情况,这就是为什么一般的关闭过程是收集所有未完成的任务,终止这些未完成的任务,然后等它们在关闭循环之前全部完成。asyncio.run()为你完成了所有这些步骤,但重要的是要详细了解流程,这样你就能够处理更复杂的情况。

我们再看一个更详细的演示了所有这些阶段的代码示例。示例3-30是一个基于telnet的echo服务器的迷你案例研究。

示例 3-30 异步应用程序的生命周期

# telnetdemo.py
import asyncio
from asyncio import StreamReader, StreamWriter


async def echo(reader: StreamReader, writer: StreamWriter): 
    print('New connection.')
    try:
        while data := await reader.readline():  
            writer.write(data.upper())  
            await writer.drain()
        print('Leaving Connection.')
    except asyncio.CancelledError:  
        print('Connection dropped!')


async def main(host='127.0.0.1', port=8888):
    server = await asyncio.start_server(echo, host, port) 
    async with server:
        await server.serve_forever()


try:
    asyncio.run(main())
except KeyboardInterrupt:
    print('Bye!')
  • (L5) 服务器将使用echo()协程函数为每个连接创建一个协程。这个函数使用streams API与asyncio进行网络连接。
  • (L8) 为了保持连接的活性,我们要使用一个无限循环来等待消息接入。
  • (L9) 然后把数据直接原样返回给发送方,就是把字母全部变成大写。
  • (L12) 如果这个任务被终止,我们会打印一条消息。
  • (L16) 这段启动TCP服务器的代码直接取自Python 3.8的官方文档。

启动echo服务器后,你可以使用telnet连接到它并跟它交互:

$ telnet 127.0.0.1 8888
Trying 127.0.0.1...
Connected to 127.0.0.1.
Escape character is '^]'.
hi!
HI!
stop shouting
STOP SHOUTING
^]
telnet> q/
Connection closed.

这次会话的服务器输出如下所示(服务器继续运行,直到我们按Ctrl-C):

$ python telnetdemo.py
New connection.
Leaving Connection.
^CBye!

在刚才展示的Telnet会话中,客户机(即Telnet)在服务器停止之前关闭了连接,现在让我们看看如果在连接处于活跃状态时关闭服务器会发生什么。我们会看到服务器进程的如下输出:

$ python telnetdemo.py
New connection.
^CConnection dropped!
Bye!

这时你可以看到CancelledError的异常处理程序被触发。现在我们假设这是一个真实的生产级应用程序,我们希望把所有关于断开连接的事件发送到监控服务。代码示例可能被修改为示例3-31。

示例 3-31 在取消步骤中创建任务

# telnetdemo.py
import asyncio
from asyncio import StreamReader, StreamWriter


async def send_event(msg: str):  
    await asyncio.sleep(1)


async def echo(reader: StreamReader, writer: StreamWriter):
    print('New connection.')
    try:
        while (data := await reader.readline()):
            writer.write(data.upper())
            await writer.drain()
        print('Leaving Connection.')
    except asyncio.CancelledError:
        msg = 'Connection dropped!'
        print(msg)
        asyncio.create_task(send_event(msg))  


async def main(host='127.0.0.1', port=8888):
    server = await asyncio.start_server(echo, host, port)
    async with server:
        await server.serve_forever()


try:
    asyncio.run(main())
except KeyboardInterrupt:
    print('Bye!')
  • (L5) 假设这个协程实际上要联系外部服务器以提交事件通知。
  • (L18) 因为事件通知器涉及网络访问,所以这样的调用通常是在单独的异步任务中进行的;这就是我们在这里使用create_task()函数的原因。

但是,这段代码有一个错误。如果我们重新运行这个示例,并确保在连接处于活跃状态时停止服务器(使用Ctrl-C),这个bug就变得很明显了:

$ python telnetdemo.py
New connection.
^CConnection dropped!
Bye!
Task was destroyed but it is pending!
task: <Task pending name='Task-6' coro=<send_event() done, ...>

要理解为什么会发生这种情况,我们必须回到asyncio.run()在关闭阶段所做的清理事件的顺序;特别要注意更重要的部分是,当我们按下Ctrl-C时,所有当前活跃的任务都会被收集和注销。这时候,只有那些当前活跃的任务会被等待直到完成,并且asyncio.run()在所有那些任务完成之后才返回。修改后的代码中的错误是,我们在现有的“echo”任务的注销处理步骤中创建了一个发送事件的新任务。只有在asyncio.run()收集并注销了流程中的所有任务之后,才会创建这个新任务。

这就是为什么了解asyncio.run()是怎么运行的很重要。

建议:一般的经验法则是,尽量避免在CancelledError异常处理程序中创建新任务。如果必须,也一定要等待同一函数范围内的新任务或未来任务。

最后:如果你正在使用一个库或框架,请确保按照它的文档来执行启动和关闭操作。第三方框架通常提供自己的启动和关闭函数,并提供自定义的事件钩子。你可以在第115页的“案例研究:缓存失效”中看到Sanic框架中使用这些钩子的例子。

gather()函数中的return_exceptions=True是什么意思?

你可能已经注意到,示例3-3和示例3-1,在关闭步骤中调用gather()时的关键字参数return_exceptions=True,但我当时故意悄悄地没有提到它。asyncio.run()也在内部使用gather()和return_exceptions=True,现在是进一步讨论这个的时候了。

不幸的是,这个参数默认是gather(…return_exceptions = False)。这个默认值对于大多数情况都是有问题的,包括关闭过程,这就是为什么asyncio.run()把参数设置为True。直接解释有点复杂;相反,让我们通过一系列详细解释来理解以上的观点会更容易:

  1. run_until_complete()函数里面操作的是一个future;在关闭任务期间,它是gather()返回的future。
  2. 如果里面的future引发异常,这个异常就会从run_until_complete()抛出,这将导致循环停止运行。
  3. 如果run_until_complete()函数操作的是一个组future,在任何子任务中引发的任何异常如果不在子任务中处理掉,就会在这个组future中引发异常。注意,这种情况也包括CancelledError。
  4. 如果只有一部分任务处理CancelledError,而其他任务不处理CancelledError,那么不处理CancelledError的任务将导致循环停止。这意味着循环在所有任务完成之前就会异常终止。
  5. 在关闭任务的过程中,我们真的不想发生这种行为。我们希望run_until_complete()只在在它组中的所有子任务都已完成时才能终止,不管其中的一些任务是否引发异常。
  6. 于是我们gather(*, return_exceptions=True):这个设置会让组future把来自于子任务的异常视为返回值,这样它们就不会冒出来干扰到run_until_complete()。

这样就知道了return_exceptions=True和run_until_complete()之间的关系。用这种方式捕获异常的一个不良后果是:有些错误可能没有引起你的注意,因为它们现在正在一组任务的内部处理。如果这是一个麻烦,你可以从run_until_complete()获取输出列表,并扫描它以查找Exception的任何子类,然后编写适合你情况的日志消息。示例3-32演示了这种方法。

示例 3-32 所有的任务都会完成

# alltaskscomplete.py
import asyncio


async def f(delay):
    await asyncio.sleep(1 / delay)  
    return delay


loop = asyncio.get_event_loop()
for i in range(10):
    loop.create_task(f(i))
pending = asyncio.all_tasks()
group = asyncio.gather(*pending, return_exceptions=True)
results = loop.run_until_complete(group)
print(f'Results: {results}')
loop.close()
  • (L5) 这里一定会触发一个异常

这是运行输出:

$ python alltaskscomplete.py
Results: [6, 9, 3, 7, ...
          ZeroDivisionError('division by zero',), 4, ...
          8, 1, 5, 2]

如果没有设置return_exceptions=True,就会从run_until_complete()引发ZeroDivisionError,停止循环,从而阻止其他任务完成。

在下一节中,我们将讨论信号处理(KeyboardInterrupt之外的信号),但在此之前,有必要记住,优雅地关闭是网络编程中比较困难的方面之一,对于asyncio来说也是这样。本节中的信息仅仅是一个开始。我鼓励你在自己的自动化测试中使用明确的关闭测试。不同的应用程序通常需要不同的策略。

建议:我在Python包索引(PyPI)上发布了一个名为aiorun的小包,主要用于我自己在处理asyncio关闭方面的实验和学习,它整合了本节中的许多想法。可能对于你在代码进行修改,并围绕asyncio关闭场景试验你自己的想法方面是有用的。

相关推荐

Python 数据分析——利用Pandas进行分组统计

话说天下大势,分久必合,合久必分。数据分析也是如此,我们经常要对数据进行分组与聚合,以对不同组的数据进行深入解读。本章将介绍如何利用Pandas中的GroupBy操作函数来完成数据的分组、聚合以及统计...

python数据分析:介绍pandas库的数据类型Series和DataFrame

安装pandaspipinstallpandas-ihttps://mirrors.aliyun.com/pypi/simple/使用pandas直接导入即可importpandasas...

使用DataFrame计算两列的总和和最大值_[python]

【如果对您有用,请关注并转发,谢谢~~】最近在处理气象类相关数据的空间计算,在做综合性计算的时候,DataFrame针对每列的统计求和、最大值等较为方便,对某行的两列或多列数据进行求和与最大值等的简便...

8-Python内置函数

Python提供了丰富的内置函数,这些函数可以直接使用而无需导入任何模块。以下是一些常用的内置函数及其示例:1-print()1-1-说明输出指定的信息到控制台。1-2-例子2-len()2-1-说...

Python中函数式编程函数: reduce()函数

Python中的reduce()函数是一个强大的工具,它通过连续地将指定的函数应用于序列(如列表)来对序列(如列表)执行累积操作。它是functools模块的一部分,这意味着您需要在使用它之...

万万没想到,除了香农计划,Python3.11竟还有这么多性能提升

众所周知,Python3.11版本带来了较大的性能提升,但是,它具体在哪些方面上得到了优化呢?除了著名的“香农计划”外,它还包含哪些与性能相关的优化呢?本文将带你一探究竟!作者:BeshrKay...

最全python3.11版12类75个内置函数大全

获取全部内置函数:importbuiltins#导入模块yc=[]#异常属性nc=[]#不可调用fn=[]#内置函数defll(ty=builtins):...

软件测试笔试题

测试工程师岗位,3-5年,10-14k1.我司有一款产品,类似TeamViewer,向日葵,mstsc,QQ远程控制产品,一个PC客户端产品,请设想一下测试要点。并写出2.写出常用的SQL语句8条,l...

备战各大互联网巨头公司招聘会,最全Python面试大全,共300题

前言众所周知,越是顶尖的互联网公司在面试这一part的要求就越高,需要你有很好的技术功底、项目经验、一份漂亮的简历,当然还有避免不了的笔试过关。对于Python的工程师来说,全面掌握好有关Python...

经典 SQL 数据库笔试题及答案整理

马上又是金三银四啦,有蛮多小伙伴在跳槽找工作,但对于年限稍短的软件测试工程师,难免会需要进行笔试,而在笔试中,基本都会碰到一道关于数据库的大题,今天这篇文章呢,就收录了下最近学员反馈上来的一些数据库笔...

用Python开发日常小软件,让生活与工作更高效!附实例代码

引言:Python如何让生活更轻松?在数字化时代,编程早已不是程序员的专属技能。Python凭借其简洁易学的特点,成为普通人提升效率、解决日常问题的得力工具。无论是自动化重复任务、处理数据,还是开发个...

太牛了!102个Python实战项目被我扒到了!建议收藏!

挖到宝了!整整102个Python实战项目合集,从基础语法到高阶应用全覆盖,附完整源码+数据集,手把手带你从代码小白变身实战大神!这波羊毛不薅真的亏到哭!超全项目库,学练一站式搞定这份资...

Python中的并发编程

1.Python对并发编程的支持多线程:threading,利用CPU和IO可以同时执行的原理,让CPU不会干巴巴等待IO完成。多进程:multiprocessing,利用多核CPU...

Python 也有内存泄漏?

1.背景前段时间接手了一个边缘视觉识别的项目,大功能已经开发的差不多了,主要是需要是优化一些性能问题。其中比较突出的内存泄漏的问题,而且不止一处,有些比较有代表性,可以总结一下。为了更好地可视化内存...

python爬虫之多线程threading、多进程、协程aiohttp批量下载图片

一、单线程常规下载常规单线程执行脚本爬取壁纸图片,只爬取一页的图片。importdatetimeimportreimportrequestsfrombs4importBeautifu...

取消回复欢迎 发表评论: