Fabric datafactory 复制数据以摄取 Sharepoint 文件

问题描述 投票:0回答:1

我正在查看 MS Fabric 来:

  1. 从多个来源提取数据,包括 xls / csv 共享点在线文件和 azure SQL 数据库。
  2. 将此数据存储在 onelake 中
  3. 使用突触(或数据工厂中的工作流程)将各种源数据处理到数据仓库中
  4. 使用数据流将 DW 数据读入更小的数据集,以供多个 Power Bi 报告使用。

我最初的问题是如何读取sharepoint在线文件。

我可以通过数据流在 power bi 服务中轻松完成此操作,方法是选择 Web API 连接器,粘贴来自 sharepoint 的文件路径并选择我的组织帐户进行身份验证。

但是,据我了解,我无法将该数据流写入 onelake,为此,我需要使用数据工厂连接/复制数据任务。

如何?

DataFactory 中的连接器/数据源负载较少,因此我假设我需要使用复制数据活动的通用协议(http?)之一,或 Web 活动来连接到我的源共享点文件? ?

我已经尝试这样做,并使用共享点文件路径作为网址,但我没有得到任何结果 - 基本上我不知道如何做到这一点,而且我找不到有用的文档。

我能找到的最接近的是如何访问共享点在线列表,但我不需要它,我需要访问实际文件。

有人有如何做到这一点的白痴指南吗?

干杯

azure-data-factory sharepoint-online microsoft-fabric
1个回答
0
投票

首先,要连接到您的共享点,您需要确保您已获得授权,从另一个租户 ADF 访问另一个租户上托管的共享点将需要采取进一步的步骤才能实现。

我知道共享点列表不是您想要的东西,而是实际的文件。我还了解到,在使用共享点时,文档似乎令人困惑,这种列表和文件二分法让许多人感到困惑。要从 Sharepoint 进行复制,您仍然需要遵循文档中列出的流程,例如注册应用程序,并使用 Web 活动进行身份验证,然后传递到以 HTTP 连接器作为源的连接的复制活动。我想尽可能直观地向您展示这一点,所以我尝试寻找一个如何设置它的视频,我喜欢一个视频,它在开始时讨论了如何使用电源自动化来完成它,并花费了视频的其余部分在 ADF 中解释了此过程。希望有帮助:

https://www.youtube.com/watch?v=fhtwW3FXf3g

https://www.youtube.com/watch?v=FFfNu3cI-uw(该视频可能有帮助,但我还没有看过)

© www.soinside.com 2019 - 2024. All rights reserved.