我有一个 Azure 逻辑应用程序,每天运行并下载多达 300MB 的 json 数据(大约 300k 个对象)。 然后,我需要迭代这些项目并进行转换,然后再推送到 Azure 服务总线。 有这样做的最佳实践吗?我有一个关于 WS1 扩展的有状态工作流程,3 小时后它仍然无法解析它。 我从中获取数据的服务无法将其分割成更小的块。
有这样做的最佳实践吗?
您只做正确的事情,但您需要像下面这样
Concurrency Control
:
并发控制用于在 For_Each 循环中并行运行所有项目,以提高执行速度。
如果要将数据或文件分成块,可以使用Azure Functions连接器(在函数中,您可以将数据分成块并将响应发送回逻辑应用程序)。