当我使用DATE_FORMAT为12月31日最新2018年是越来越改为2019年谁能帮说,如果这是一个错误或我失去了一些东西。
import org.apache.spark.sql.functions._
spark.sql("select CAST(1546268400 AS TIMESTAMP)").show(false)
输出:2018年12月31日15:00:00.0
spark.sql("select DATE_FORMAT(CAST(1546268400 AS TIMESTAMP), 'MM/dd/YYYY HH:mm')").show(false)
输出:2019年12月31日15:00
因此,这并不完全回答你的问题,但使用YYYY
的VS yyyy
似乎这里至关重要。居然还在调查,但是这可能会帮助你弄明白为好。
更新:https://github.com/davedelong/calendar_fallacies/issues/26
YYYY
和yyyy
之间的区别是ISO_Week年VS日历年。