返回数据帧中满足一个条件的行,同时修复另一列的值

问题描述 投票:0回答:1

我有一个如下所示的数据框:

Genres | Year | Number_Movies
Drama  |2015  | 705
Romance|2015  | 203
Comedy |2015  | 586
Drama  |2014  | 605
Romance|2014  | 293
Comedy |2014  | 786

我想按年份返回电影数量最多的性别:

Genres | Year | Number_Movies
Drama  |2015  | 705
Comedy |2014  | 786

如果可能的话请帮忙。多谢。

apache-spark pyspark apache-spark-sql
1个回答
1
投票

这里有一些可以解决这个问题的选项 -

df = spark.createDataFrame([('Drama',2015,705),('Romance',2015,203),('Comedy',2015,586),('Drama',2014,605),('Romance',2014,293),('Comedy ',2014,786)],['Genres','Year','Number_Movies'])

第一个选项: 使用窗口函数定义排名(按 - Year 分区并按 - Number_Movies desc 排序)。每年最多的 Number_Movies 将获得排名“1”。

from pyspark.sql.window import Window
from pyspark.sql.functions import row_number,desc

w = Window.partitionBy("Year").orderBy(desc("Number_Movies"))
rank = row_number().over(w).alias('rank')

df.withColumn("rank", rank)\
    .where("rank=1")\
    .drop("rank")\
    .show()

#+-------+----+-------------+
#| Genres|Year|Number_Movies|
#+-------+----+-------------+
#|Comedy |2014|          786|
#|  Drama|2015|          705|
#+-------+----+-------------+

第二个选项: 获取每年的 Number_Movies 最大值,并与数据框自连接以获得流派。

from pyspark.sql.functions import max,col

joining_condition = [col('a.Year') == col('b.Year'), col('a.max_Number_Movies') == col('b.Number_Movies')]

df.groupBy("Year").\
    agg(max("Number_Movies").alias("max_Number_Movies")).alias("a").\
    join(df.alias("b"),  joining_condition).\
    selectExpr("b.Genres","b.Year","b.Number_Movies").\
    show()

#+-------+----+-------------+
#| Genres|Year|Number_Movies|
#+-------+----+-------------+
#|Comedy |2014|          786|
#|  Drama|2015|          705|
#+-------+----+-------------+
© www.soinside.com 2019 - 2024. All rights reserved.