运行多个SQL查询并测试是否通过Spark Scala失败

问题描述 投票:0回答:1

我正在运行100个查询(测试用例)以检查Spark Scala中的数据质量。我正在从配置单元表查询数据。

空数据框是这些示例查询的预期结果:

SELECT car_type FROM car_data WHERE car_version is null
SELECT car_color FROM car_data WHERE car_date is null
SELECT car_sale FROM car_data WHERE car_timestamp is null

我想根据预期结果将测试用例通过还是失败写到文本文件中。我想知道实现此目标的最佳方法。

到目前为止我所拥有的:

val test_1 = context.sql("SELECT car_type FROM car_data WHERE car_version is null")
val test_2 = context.sql("SELECT car_color FROM car_data WHERE car_date is null")
val test_3 = context.sql("SELECT car_sale FROM car_data WHERE car_timestamp is null")
test_1.head(1).isEmpty 
sql apache-spark hadoop hiveql cloudera
1个回答
0
投票

如果您想知道是否有任何值是NULL,则可以使用条件聚合。我倾向于使用一个查询来运行所有测试:

SELECT (CASE WHEN COUNT(*) = COUNT(car_type) THEN 'PASS' ELSE 'FAIL' END) as car_type_test,
       (CASE WHEN COUNT(*) = COUNT(car_color) THEN 'PASS' ELSE 'FAIL' END) as car_color_test,
       (CASE WHEN COUNT(*) = COUNT(car_sale) THEN 'PASS' ELSE 'FAIL' END) as car_sale_test       
FROM car_data;

注意:这将认为是一个空表可以通过测试,而您的代码则不会。这些可以很容易地修改以处理这种情况,但是这种行为对我来说很有意义。

© www.soinside.com 2019 - 2024. All rights reserved.