我正在使用python RQ在后台执行作业。该作业将调用第三方rest API,并将响应存储在数据库中。 (请参阅下面的代码)
@classmethod
def fetch_resource(cls, resource_id):
import requests
clsmgr = cls(resource_id)
clsmgr.__sign_headers()
res = requests.get(url=f'http://api.demo-resource.com/{resource_id}', headers=clsmgr._headers)
if not res.ok:
raise MyThirdPartyAPIException(res)
....
第三方API的速率有所限制,例如每分钟7个请求。我创建了一个重试处理程序,以优雅地处理429 too many requests
HTTP状态代码,并在一分钟后(时间单位根据速率限制而变化)重新排队。要在一定间隔后重新排队,我正在使用rq-scheduler
。请在下面找到附加的处理程序代码,
def retry_failed_job(job, exc_type, exc_value, traceback):
if isinstance(exc_value, MyThirdPartyAPIException) and exc_value.status_code == 429:
import datetime as dt
sch = Scheduler(connection=Redis())
# sch.enqueue_in(dt.timedelta(seconds=60), job.func_name, *job.args, **job.kwargs)
我在将失败的作业重新排队回到任务队列时遇到问题。由于无法在处理程序代码中直接调用sch.enqueue_in(dt.timedelta(seconds=60), job)
(根据文档,作业代表延迟的函数调用)。如何重新排队所有args和kwargs的job函数?
任何帮助将不胜感激,如果有更好的方法来处理API速率限制,请让我知道。
干杯们!
啊,下面的语句起作用了,
sch.enqueue_in(dt.timedelta(seconds=60), job.func, *job.args, **job.kwargs)
问题仍然悬而未决,请告诉我是否有人对此有更好的方法。