逻辑应用程序解析大型 json 文件(最多 300MB)

问题描述 投票:0回答:1

我有一个 Azure 逻辑应用程序,每天运行并下载多达 300MB 的 json 数据(大约 300k 个对象)。 然后,我需要迭代这些项目并进行转换,然后再推送到 Azure 服务总线。 有这样做的最佳实践吗?我有一个关于 WS1 扩展的有状态工作流程,3 小时后它仍然无法解析它。 我从中获取数据的服务无法将其分割成更小的块。

parsing azure-logic-apps large-files
1个回答
0
投票

有这样做的最佳实践吗?

您只做正确的事情,但您需要像下面这样

Concurrency Control

enter image description here

并发控制用于在 For_Each 循环中并行运行所有项目,以提高执行速度。

如果要将数据或文件分成块,可以使用Azure Functions连接器(在函数中,您可以将数据分成块并将响应发送回逻辑应用程序)。

enter image description here

© www.soinside.com 2019 - 2024. All rights reserved.