如何在Spark SQL中格式化日期?

问题描述 投票:0回答:2

我需要将此给定的日期格式:2019-10-22 00:00:00转换为该日期格式:2019-10-22T00:00:00.000Z

我知道这可以通过以下方式在某些数据库中完成:

在AWS Redshift中,您可以使用以下方法实现此目的:TO_DATE('{RUN_DATE_YYYY/MM/DD}', 'YYYY/MM/DD') || 'T00:00:00.000Z' AS VERSION_TIME

但是我的平台是Spark SQL,因此以上两个都不对我有用,我能得到的最好的方法是使用它]

concat(d2.VERSION_TIME, 'T00:00:00.000Z') as VERSION_TIME

这有点hacky,但仍然不完全正确,我得到了以下日期格式:

2019-10-25 00:00:00T00:00:00.000Z

但是字符串中间的这部分00:00:00是多余的,我不能把它留在那里。

这里任何有见识的人将不胜感激!

我需要将此给定的日期格式:2019-10-22 00:00:00转换为以下格式:2019-10-22T00:00:00.000Z我知道可以通过以下方式在某些数据库中完成此操作:在AWS Redshift中,您可以使用...

sql apache-spark apache-spark-sql pyspark-sql date-format
2个回答
0
投票

也许是这样?这有点不同。


0
投票

这是我自然的想法。

© www.soinside.com 2019 - 2024. All rights reserved.