在 Fabric 内部,我想将 csv 文件写入 Lakehouse。
我尝试过以下方法:
df_sales.write.format("csv").mode("overwrite").save("Files/Sales/PerLoadDate/sales_20210101.csv")
但是,尽管我明确指定我希望将数据帧写入 csv 文件,但它会以 delta 格式写入。 IE。这两个文件位于名为 sales_20210101.csv 的文件夹中。
有人有办法解决这个问题吗?
我尝试了你的代码,结果是一个随机名称的 CSV 文件,位于 sales_20210101.csv 文件夹内。
Spark 将始终保存到文件夹,因为它使用分区来读取和写入文件(在本例中只有 1 个分区)。
如果您需要特定的文件名,请考虑使用 Fabric 中的数据工厂或数据流 Gen2 服务。