rom pyspark import SparkConf 从 pyspark.context import SparkContext 从 pyspark.sql import SparkSession, SQLContext
从pyspark.sql.type中导入*。
df = spark.read.csv("homsourabhDownloads1535617931_LMS_DATA_1.csv",inferSchema=True, header=True)df.printSchema()
这是因为你在做之前没有创建任何spark session的实例。spark.read
你将不得不创建一个SparkSession对象,可以像这样做 spark = SparkSession.builder().getOrCreate()
这是最基本的定义方式,你可以用以下方法为它添加配置 .config("<spark-config-key>","<spark-config-value>")
.