我有一个数据框架 fulldb_accrep_united
诸如此类的。
SparkID ... Period
0 913955 ... {"@PeriodName": "2000", "@DateBegin": "2000-01...
1 913955 ... {"@PeriodName": "1999", "@DateBegin": "1999-01...
2 16768 ... {"@PeriodName": "2007", "@DateBegin": "2007-01...
3 16768 ... {"@PeriodName": "2006", "@DateBegin": "2006-01...
4 16768 ... {"@PeriodName": "2005", "@DateBegin": "2005-01...
我需要转换 Period
列,也就是现在的字符串列变成了字符串列。json
值。通常我用 df.apply(lambda x: json.loads(x))
但这个数据框太大,无法整体处理。我想使用 dask
但我似乎错过了一些重要的东西。我想我不明白如何使用... ... apply
在 dask
但我找不到解决方案。
代码
如果在内存中使用Pandas的所有df,我应该这样做。
#%% read df
os.chdir('/opt/data/.../download finance/output')
fulldb_accrep_united = pd.read_csv('fulldb_accrep_first_download_raw_quotes_corrected.csv', index_col = 0, encoding = 'utf-8')
os.chdir('..')
#%% Deleting some freaky symbols from column
condition = fulldb_accrep_united['Period'].str.contains('\\xa0', na = False, regex = False)
fulldb_accrep_united.loc[condition.values, 'Period'] = fulldb_accrep_united.loc[condition.values, 'Period'].str.replace('\\xa0', ' ', regex = False).values
#%% Convert to json
fulldb_accrep_united.loc[fulldb_accrep_united['Period'].notnull(), 'Period'] = fulldb_accrep_united['Period'].dropna().apply(lambda x: json.loads(x))
这是我尝试使用的代码 dask
:
#%% load data with dask
os.chdir('/opt/data/.../download finance/output')
fulldb_accrep_united = dd.read_csv('fulldb_accrep_first_download_raw_quotes_corrected.csv', encoding = 'utf-8', blocksize = 16 * 1024 * 1024) #16Mb chunks
os.chdir('..')
#%% setup calculation graph. No work is done here.
def transform_to_json(df):
condition = df['Period'].str.contains('\\xa0', na = False, regex = False)
df['Period'] = df['Period'].mask(condition.values, df['Period'][condition.values].str.replace('\\xa0', ' ', regex = False).values)
condition2 = df['Period'].notnull()
df['Period'] = df['Period'].mask(condition2.values, df['Period'].dropna().apply(lambda x: json.loads(x)).values)
result = transform_to_json(fulldb_accrep_united)
这里的最后一个单元格出现错误。
NotImplementedError: Series getitem in only supported for other series objects with matching partition structure
我做错了什么?我花了近5个小时来寻找类似的主题,但我认为我错过了一些重要的东西,因为我是这个主题的新手,我有一个数据帧fulldb_accrep_united这样的类型:SparkID ...
你的问题太长了,我没有全部看完。 我很抱歉。 请看 https:/stackoverflow.comhelpminimal-reproducible-example。
然而,根据标题,你可能想将json.loads函数应用于数据框架列中的每个元素。
df["column-name"] = df["column-name"].apply(json.loads)