在Pivotal Cloud Foundry上运行的Spring Cloud Dataflow可以将文件写入内部服务器吗?

问题描述 投票:0回答:1

在过去的几个月中,我一直在尝试Spring Dataflow。我一直在使用Docker容器在自己的计算机上运行数据流。我有一些用例,它们要么从FTP站点抓取文件并将其写入本地文件共享,要么从本地文件共享写入文件到FTP站点。看来Dataflow将是一个很好的解决方案。

我的公司正在迁移到Pivotal Cloud Foundry,当时的想法是在其上运行Dataflow。最近有人告诉我PCF没有简单的方法可以将文件写入本地服务器。有没有一种方法可以挂载卷,类似于您对docker所做的操作,以便我可以利用Dataflow随附的开箱即用的File Source和Sink应用程序?

architecture spring-cloud-stream pivotal-cloud-foundry spring-cloud-dataflow
1个回答
1
投票

是,您可以使用Volume Services。如果将Spring Cloud DataFlow部署到Pivotal Cloud Foundry,则SCDF部署的所有内容都将是Java应用程序,而所有这些都将在Linux Cells中运行。 Linux单元同时支持NFS和SMB卷服务驱动程序。

如果您的源服务器和/或目标服务器是Windows服务器,也可以。您只需要使用SMB卷服务,因为NFS不能在Windows上使用。请参阅以下文档,确保已启用SMB卷服务。

https://docs.pivotal.io/platform/application-service/operating/enable-vol-services.html#smb-enable

然后,您应该能够按照以下说明将Windows卷挂载到您的应用程序。

https://docs.pivotal.io/pivotalcf/devguide/services/using-vol-services.html#smb

© www.soinside.com 2019 - 2024. All rights reserved.