Pyspark数据框架OrderBy列表中的列[重复]。

问题描述 投票:2回答:1

我试图在pyspark数据框架中使用OrderBy函数,然后再写入csv,但我不确定如果我有一个列的列表,是否可以使用OrderBy函数。

编码。

Cols = ['col1','col2','col3']
df = df.OrderBy(cols,ascending=False)
python-3.x apache-spark pyspark apache-spark-sql sql-order-by
1个回答
5
投票

按照docstring的签名。

Signature: df.orderBy(*cols, **kwargs)
Docstring:
Returns a new :class:`DataFrame` sorted by the specified column(s).
:param cols: list of :class:`Column` or column names to sort by.
:param ascending: boolean or list of boolean (default True).

既是

df = spark.createDataFrame([(1, 2, 3)] )
cols = ["_1", "_2", "_3"]

df.orderBy(cols, ascending=False)

df.orderBy(*cols, ascending=False)

是有效的,以及等价的与 list[pyspark.sql.Column].

© www.soinside.com 2019 - 2024. All rights reserved.