DATE_FORMAT转换是将1年至边境日期

问题描述 投票:2回答:1

当我使用DATE_FORMAT为12月31日最新2018年是越来越改为2019年谁能帮说,如果这是一个错误或我失去了一些东西。

import org.apache.spark.sql.functions._

spark.sql("select CAST(1546268400 AS TIMESTAMP)").show(false)

输出:2018年12月31日15:00:00.0


spark.sql("select DATE_FORMAT(CAST(1546268400 AS TIMESTAMP), 'MM/dd/YYYY HH:mm')").show(false)

输出:2019年12月31日15:00

scala apache-spark apache-spark-sql date-format unix-timestamp
1个回答
2
投票

Spark shell Results

因此,这并不完全回答你的问题,但使用YYYY的VS yyyy似乎这里至关重要。居然还在调查,但是这可能会帮助你弄明白为好。

更新:https://github.com/davedelong/calendar_fallacies/issues/26

YYYYyyyy之间的区别是ISO_Week年VS日历年。

© www.soinside.com 2019 - 2024. All rights reserved.