org.apache.spark.sql.AnalysisException:无法解析'`S.SID`'

问题描述 投票:0回答:1

我正在使用Java语言。我的代码中有以下查询:

public static String GET_E_BCHGS = "SELECT BCL.* "
+"FROM (SELECT * " 
      +"FROM (SELECT (SELECT BILLABLE_CHG_ID " 
                    +"FROM BC " 
                    +"WHERE BC.BILLABLE_CHG_STAT = 10 "
                    +"AND BC.FEED_SOURCE_FLG = 'TFM' " 
                    +" AND BC.SA_ID = S.SA_ID AND (EXISTS (SELECT 1 " 
                                                        +"FROM BCC " 
                                                        +"WHERE BCC.BILLABLE_CHG_ID = BC.BILLABLE_CHG_ID " 
                                                        +"AND BCC.CHAR_TYPE_CD = 'AGG_CRTA' " 
                                                        +"AND BCC.ADHOC_CHAR_VAL = S.SID) " 
                                                        +"OR "
                                                        +"(BC.PRICEITEM_CD = S.FIN_PRICEITEM_CD " 
                                                        +"AND BC.TOU_CD =S.TOU_CD " 
                                                        +"AND BC.START_DT =S.BCHG_START_DT " 
                                                        +"AND BC.END_DT =S.BCHG_END_DT " 
                                                        +"AND BC.PRICE_ASGN_ID= S.PRICE_ASGN_ID " 
                                                        +"AND BC.PRICEITEM_PARM_GRP_ID = S.PRICEITEM_PARM_GRP_ID " 
                                                        +"AND BC.AGG_PARM_GRP_ID = S.AGG_PARM_GRP_ID) "
                                                +") AND NOT EXISTS (SELECT 1 " 
                                                                  +"FROM C, BS " 
                                                                  +"WHERE BS.bseg_id = C.bseg_id " 
                                                                  +"AND C.billable_chg_id = BC.BILLABLE_CHG_ID " 
                                                                  +"AND BS.bseg_stat_flg not in (10,60))) " 
              +"AS BILLABLE_CHG_ID " 
              +"FROM S " 
              +"WHERE SID >= '2100000000063000004222017020100018243020717805750011' " 
             +"AND SID <= null " 
             +"AND " 
              +"STATUS = ' ' " 
              +"AND TXN_RATING_CRITERIA ='RITA') " 
        +"WHERE BILLABLE_CHG_ID <> ' ' " 
        +"GROUP BY BILLABLE_CHG_ID) F, BCL " 
+"WHERE F.BILLABLE_CHG_ID = BCL.BILLABLE_CHG_ID " 
+"ORDER BY BCL.BILLABLE_CHG_ID, LINE_SEQ";

我试图在Spark SQL中使用相同的,下面是相同的代码:

Dataset<Row> bc = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "B_CHG").load();
    bc.createOrReplaceTempView("BC");
    Dataset<Row> bcc = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "B_CHG_CHAR").load();
    bcc.createOrReplaceTempView("BCC");
    Dataset<Row> c = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "B_CALC").load();
    c.createOrReplaceTempView("C");
    Dataset<Row> bs = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "BSEG").load();
    bs.createOrReplaceTempView("BS");
    Dataset<Row> s = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "TXN_DTL_P_SUMMARY").load();
    s.createOrReplaceTempView("S");
    Dataset<Row> bcl = sparkSession.read().format("jdbc").option("url",connection ).option("dbtable", "B_CHG_L").load();
    bcl.createOrReplaceTempView("BCL");

    Dataset<Row> existingBchgsDS = sparkSession.sql(SQQueries.GET_E_BCHGS);
    existingBchgsDS.show();

在运行此代码时,我得到以下提到的错误:

Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve '`S.SID`' given input columns: [bcc.CHAR_VAL_FK4, bcc.CHAR_VAL_FK2, bcc.CHAR_VAL_FK5, bcc.BILLABLE_CHG_ID, bcc.ADHOC_CHAR_VAL, bcc.CHAR_VAL_FK3, bcc.CHAR_TYPE_CD, bcc.SRCH_CHAR_VAL, bcc.CHAR_VAL_FK1, bcc.CHAR_VAL, bcc.VERSION, bcc.EFFDT]; line 1 pos 297;
'Sort ['BCL.BILLABLE_CHG_ID ASC NULLS FIRST, 'LINE_SEQ ASC NULLS FIRST], true.........

//more lines of error

我想明白:

  1. 这个查询有什么问题?相同的查询在sql开发人员上正确运行。
  2. Spark SQL是否支持此类查询? 要么
  3. 有没有其他方式写同样的?

Spark版本:2.3.0

java apache-spark apache-spark-sql apache-spark-2.0
1个回答
0
投票
  1. 我认为你正在做的是正确的你可以写sparkSession.sql()作为错误状态我认为它无法在应用所有其他条件后找出column SID中的Dataset S,我认为它更好地让我们理解你是否可以发布模式的数据集也是如此。
  2. 是的,有支持,但我建议使用过滤器,并在数据集上选择和其他,以便您可以更好地控制代码。主要的变化是编码和调试的简易性。使用spark.sql,你不会在编译时有任何关于错误或类型错误的信息......并且使用.filter,.select更容易缩进,读取等...并且它具有相同的性能。
© www.soinside.com 2019 - 2024. All rights reserved.