spark-dataframe 相关问题

Apache Spark SQL是Spark上的“SQL和结构化数据处理”工具,Spark是一种快速通用的集群计算系统。

数据帧字符串到Hive表Bigint - 如何转换

Spark:1.6,Scala,Hive我有一个数据帧DF.printschema root | - rundatetime:string(nullable = true)| - day_cunt:String(nullable = true)| - my_key:integer(nullable = true)DF。节目() ...

回答 1 投票 0

pyspark读取csv文件multiLine选项不适用于具有换行符spark2.3和spark2.2的记录

我正在尝试使用pyspark csv reader读取dat文件,它包含换行符(“\ n”)作为数据的一部分。 Spark无法将此文件作为单列读取,而是将其视为新的...

回答 1 投票 1

将Pandas数据帧转换为Spark数据帧错误

我正在尝试将Pandas DF转换为Spark。 DF头:10000001,1,0,1,12:35,OK,10002,1,0,9,f,NA,24,24,0,3,9,0,0,1,1,0,0 ,4,543 10000001,2,0,1,12:36,OK,10002,1,0,9,f,NA,24,24,0,3,9,2,1,1,3,1,3, 2,611 ......

回答 4 投票 20

Spark:相当于数据帧中的zipwithindex

假设我有以下数据帧:dummy_data = [('a',1),('b',25),('c',3),('d',8),('e',1) ] df = sc.parallelize(dummy_data).toDF(['letter','number'])我想创建以下内容......

回答 1 投票 5

© www.soinside.com 2019 - 2024. All rights reserved.