pyspark 相关问题

Spark Python API(PySpark)将apache-spark编程模型暴露给Python。

处理 pyspark 中的动态列数(csv 文件)

我收到下面的 CSV 文件(没有标题)- D,neel,32,1,pin1,state1,公头 D,sani,31,2,pin1,state1,pin2,state2,女 D,raja,33,3,pin1,state1,pin2,state2,pin3,state3,男 我想创造...

回答 2 投票 0

Pyspark 如何避免顶部和嵌套结构中的组爆炸(代码优化)

问题 我想根据请求数据计算一些统计数据,这些数据按顶层中的值和嵌套层中的值分组。 explode-join和3x groupby的主要问题是大数据的代码(100G...

回答 1 投票 0

执行器内的内核共享内存

假设我们有 5 台工作机器。每个工作节点配置为 16 核和 64 GB 内存。总共 80 个核心和 320 GB 内存。 现在我们可以配置如下属性: 选项 1:设置...

回答 1 投票 0

如何使用 PySpark 将另一列中包含的列名称替换为该列的值?

我有一个 PySpark 数据框,如下所示: ID 第 1 列 列2 可乐 科尔B id_1 %可乐 < %colA int1 int3 Id_2 %colB t < %colB int2 int4 I want to replace strings starting with % with it's corresponding

回答 1 投票 0

Pyspark,帮助更改此代码以减去不同的行

我想从前一个 value1 行中减去当前 value2 行,当 week > 1 时 这是我的数据: ''' 从 pyspark.sql 将函数导入为 f 数据 = [ (1,1,1), (2,0,5), (3, ...

回答 1 投票 0

查找列不匹配的行

我怎样才能找到两列不相等的行(就像熊猫一样)? 数据= [(“约翰”,“多伊”),(无,“多伊”),(“约翰”,无),(无,无)] df = sp...

回答 2 投票 0

EST 中的 Azure Databricks Notebook 中的当前时间戳

我需要 EST 中的当前时间戳,但 current_timestamp() 返回 PST。 尝试了以下代码,但它不起作用并显示 EST 时间之前 6 小时: # 导入 current_timestamp

回答 1 投票 0

Pyspark 函数减去之前的行

在一定条件下将滞后/Windows 函数应用于整个数据帧时遇到问题。 我想用当前行值(value2)减去前面的行值(value1),...

回答 1 投票 0

无法从 Databricks 笔记本在 ADLS 中执行并行写入操作。 OSError:[Errno 107] 传输端点未连接

在数据帧上的 foreach() 中执行写入操作时遇到此错误。这段代码在 3 个多月内运行良好,但从上周开始出现故障。 为了提供一些背景信息,我...

回答 1 投票 0

DataFrame.dropDuplicates 可以用来只保留 Spark 中的最新数据吗?

我在 Spark 中有一个按时间排序的 Dataframe,如下所示: id值时间 1 个 2024-01-01 00:00:00 2 2024-01-01 00:00:00 2 乙 2024-01-03 00:00:00 1 b ...

回答 1 投票 0

DataFrame.dropDuplicates 在 Spark 中表现如何?

我在 Spark 中有一个按时间排序的 Dataframe,如下所示: id值时间 1 个 2024-01-01 00:00:00 2 2024-01-01 00:00:00 2 乙 2024-01-03 00:00:00 1 b ...

回答 1 投票 0

spark.read.json 抛出 COLUMN_ALREADY_EXISTS,列名称因大写和类型而异

我正在尝试在 Spark 中读取一个巨大的非结构化 JSON 文件。我遇到了一种边缘情况,它似乎与仅在大写/小写和类型上有所不同的列相关。考虑脚本: 来自 pys...

回答 1 投票 0

带有分组数据的 Spark 结构化流 - 每组一个微批次

如果对流数据帧数据进行分组,是否可以在 Spark 结构化流中以单独的单个微批次处理每个组?像这样的东西: dfs = ... dfs.groupBy(...).writestrea...

回答 1 投票 0

PYSPARK - 在多个列上加入 nullsafe

假设我们有两个数据帧,我们想要将它们与左反连接进行比较: 数据1 = [ (1、11、20、无)、 (2, 12, 22, 31), ] 数据2 = [ (1、11、20、无)、 (2, 1...

回答 2 投票 0

Pyspark windows 函数不适用于整个数据帧

在一定条件下将滞后/Windows 函数应用于整个数据帧时遇到问题。 我想将前一行的值(value1)与当前行的值(value2)相乘,...

回答 1 投票 0

使用 pyspark 从具有键值对的 json 对象的嵌套数组中删除字段

使用pyspark从具有键值对(empval)的json对象的嵌套数组中删除id字段 输入 +----------+--------+---------------------------- ------------------------------------------------------...

回答 1 投票 0

如何从 PySpark 数据框中的嵌套 JSON 中提取列值?

我正在开发一个 PySpark 数据框(es_query),其中包含嵌套的 JSON 列(r_json、brd_json、vs_json)。我需要帮助提取列数据并将其存储在另一个数据框中(e_re...

回答 1 投票 0

无法让 PostgreSQL JDBC 在 Spark 环境中与 PySpark 配合使用

我想与远程 Linux 机器中的 postgresql 数据库进行交互。 Postgres 是 12,Linux 是 openjdk 1.8.0_402。为了获取 postgresql JDBC,我访问了 https://jdbc.postgresql.org/download/...

回答 1 投票 0

按 pyspark 数据框中的映射类型值过滤

Spark 数据框: Text_col Maptype_col 那么什么是{3:1, 5:1, 1:1} 什么是火花{3:2, 5:1} 我想过滤(删除)Maptype_col 中至少有一个条目的行...

回答 1 投票 0

从 pyspark 中的文本中提取地址

我对描述中的每个令牌都有一些描述和标签。标签指定令牌的类型。我想从描述中提取地址,即:对应于...的所有代币

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.