我正在运行以下代码并获取错误(名称'spark'未定义)。我已安装仍然收到错误并帮助我解决此错误。
df = spark.createDataFrame([
(1, 144.5, 5.9, 33, 'M'),
(2, 167.2, 5.4, 45, 'M'),
(3, 124.1, 5.2, 23, 'F'),
(4, 144.5, 5.9, 33, 'M'),
(5, 133.2, 5.7, 54, 'F'),
(3, 124.1, 5.2, 23, 'F'),
(5, 129.2, 5.3, 42, 'M'),
], ['id', 'weight', 'height', 'age', 'gender'])
试试这个 :
from pyspark.sql.session import SparkSession
SPARK = SparkSession.builder.getOrCreate()