Spark Python API(PySpark)将apache-spark编程模型暴露给Python。
PySpark MLLib Zeppelin Logistic回归度量标准错误:AssertionError:维度不匹配
我正在尝试使用MLLib在Pyspark中运行逻辑回归。该模型运行但我无法获得任何指标。我的数据采用csv格式,我将其转换如下:def load(prefix):...
找不到'cairo.Context'的外来struct转换器
又是我。这是一个与我正在做的项目相关的代码,称为Twitter数据上的情感分析。以下代码主要用于显示正负推文的数量...
我正在阅读防火墙日志数据,其中包括以下内容:(UniqueID,start_or_stop,timestamp)在某些时候,每个“start”后面都是stop,当它出现时我想输出(UniqueID,...
仅在关闭应用程序后才能在套接字中发送DStream的rdds
我正在尝试Spark Streaming设置,其中应用程序接收文本(行),对其进行计数,然后将结果发送回服务器。这就是我现在正在尝试的:sc = ...
我对用于教育目的的Spark RDD谱系或运算符图表的清晰表达感兴趣。我试过.toDebugString()但是我很难把它打印得很漂亮(...
使用负索引从pyspark字符串列的最后一个索引中对多个字符进行子字符串
与以下内容密切相关:Spark Dataframe列,其他列的最后一个字符,但我想从-1索引中提取多个字符。我有以下pyspark数据帧df + ---------- + ----...
假设我有一个RDD,我需要映射一个可能失败的任务rdd = sc.parallelize([1,2,3])rdd.map(a_task_that_can_fail)有没有办法设置spark以最好地运行任务努力的基础。我......
我想将值传递给python中的livy代码。但是我传递的值在每次调用后都会发生变化,但是传给livy的值仍然相同。 data_while_loop = {'code':textwrap.dedent(“”“...
我的问题有两个部分。第一个是理解Spark的工作方式,第二个是优化。我有一个火花数据框,它有多个分类变量。对于每一个......
spark magic - 输入sql context作为字符串
连接到livy上的spark可以在Jupyter中正常工作,以下是火花魔法:%% spark -c sql select * from some_table现在我如何使用字符串变量来查询表?以下是......
如何在pyspark中读取和写入coordinateMatrix到文件
我在pyspark中有一个非常稀疏的数据帧,我将这个数据帧转换为CoordinatedMatrix。现在我想在hdfs上保存这个矩阵,以便稍后重用它来训练我的模型。不幸的是,我没有......
我必须在pyspark(spark 2.0)的大型DataFrame中对列进行编码。所有值几乎都是唯一的(约1000mln值)。最好的选择可能是StringIndexer,但由于某种原因它始终......
我有一个包含以下列和相应值的数据帧(原谅我的格式但不知道如何以表格格式):Src_ip dst_ip V1 V2 V3 top“A”“...
我有一个Pyspark DataFrame有两列:sendtime和charge_state,如果charge_state从“off”变为“on”,则新的充电周期开始。现在我想标记每个充电周期给我...
当列表值与Pyspark数据帧中的列值的子字符串匹配时,填充新列
我在Pyspark有一个数据框,如下面的df.show()+ --- + ---------------------- + | ID |精读| + --- + ---------------------- + | 3 | mac,mac pro | | 1 | iphone5的,iphone | | ...
在Spark版本2.2.1中相当于此调用的是什么:df.column_name.eqNullSafe(df2.column_2)(df.column_name不可调用。它在2.3.0中工作但在2.2.1中我得到错误:TypeError :'...
我有多个文件(CSV和XML),我想做一些过滤器。我定义了一个functoin做所有这些过滤器,我想知道如何将其称为适用于我的CSV文件? PS:类型......
在Pyspark中使用时,具有静态文件依赖性的python包无法读取静态文件
我试图解决python包PySpark的问题。我开发了一个python包,它具有以下结构。 sample_package / | -config / | -sample.ini | -main.py | -__ init __....
PySpark - 从Numpy Matrix创建DataFrame
我有一个numpy矩阵:arr = np.array([[2,3],[2,8],[2,3],[4,5]])我需要从arr创建一个PySpark Dataframe。我无法手动输入值,因为arr的长度/值将是......
我正在使用python,目前有几个类pyspark.sql.column.Column的实例,并希望连接它们,以便我得到一个pyspark.sql.dataframe.DataFrame对象...