数据科学技术的新手。目前正致力于阅读SAS文件(.sas7dbat)。
能够使用以下方式读取文件:
SAS7BDAT('/dbfs/mnt/myMntScrum1/sasFile.sas7bdat') as f:
for row in f:
print(row)
Row打印所有数据。
当我们在SAS查看器中查看SAS文件时,我们可以看到元数据E.g.标签用于实际数据的信息和变量(列名)
如何使用Python在Spark(Databricks)中读取此元数据?
你尝试过pyreadstat吗?
它可以直接读取元数据。
import pyreadstat
df, meta = pyreadstat.read_sas7bdat('/path/to/a/file.sas7bdat')
Python中的大多数数据分析是使用pandas库完成的,该库有一个名为'read_sas'的方法,它保留了元数据,除非你被命令使用spark我强烈推荐pandas。以下是SAS用户的一组说明:https://blog.dominodatalab.com/pandas-for-sas-users-part-1/