使用列值作为spark DataFrame函数的参数

问题描述 投票:3回答:1

考虑以下DataFrame:

#+------+---+
#|letter|rpt|
#+------+---+
#|     X|  3|
#|     Y|  1|
#|     Z|  2|
#+------+---+

可以使用以下代码创建:

df = spark.createDataFrame([("X", 3),("Y", 1),("Z", 2)], ["letter", "rpt"])

假设我想在rpt列中指定的次数重复每一行,就像在这个question中一样。

一种方法是使用以下solution查询将我的pyspark-sql复制到该问题:

query = """
SELECT *
FROM
  (SELECT DISTINCT *,
                   posexplode(split(repeat(",", rpt), ",")) AS (index, col)
   FROM df) AS a
WHERE index > 0
"""
query = query.replace("\n", " ")  # replace newlines with spaces, avoid EOF error
spark.sql(query).drop("col").sort('letter', 'index').show()
#+------+---+-----+
#|letter|rpt|index|
#+------+---+-----+
#|     X|  3|    1|
#|     X|  3|    2|
#|     X|  3|    3|
#|     Y|  1|    1|
#|     Z|  2|    1|
#|     Z|  2|    2|
#+------+---+-----+

这有效并产生正确的答案。但是,我无法使用DataFrame API函数复制此行为。

我试过了:

import pyspark.sql.functions as f
df.select(
    f.posexplode(f.split(f.repeat(",", f.col("rpt")), ",")).alias("index", "col")
).show()

但这会导致:

TypeError: 'Column' object is not callable

为什么我能够在查询中将列作为repeat的输入传递,而不是从API传递?有没有办法使用spark DataFrame函数复制此行为?

apache-spark pyspark apache-spark-sql pyspark-sql
1个回答
5
投票

一种选择是使用pyspark.sql.functions.expr,它允许您使用列值作为spark-sql函数的输入。

根据@ user8371915的comment,我发现以下工作:

from pyspark.sql.functions import expr

df.select(
    '*',
    expr('posexplode(split(repeat(",", rpt), ","))').alias("index", "col")
).where('index > 0').drop("col").sort('letter', 'index').show()
#+------+---+-----+
#|letter|rpt|index|
#+------+---+-----+
#|     X|  3|    1|
#|     X|  3|    2|
#|     X|  3|    3|
#|     Y|  1|    1|
#|     Z|  2|    1|
#|     Z|  2|    2|
#+------+---+-----+
© www.soinside.com 2019 - 2024. All rights reserved.