不知道如何解决。任何帮助非常感谢。我看到了Vectorization: Not a valid collection,但不确定我是否理解这一点
train = df1.iloc[:,[4,6]]
target =df1.iloc[:,[0]]
def train(classifier, X, y):
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=33)
classifier.fit(X_train, y_train)
print ("Accuracy: %s" % classifier.score(X_test, y_test))
return classifier
trial1 = Pipeline([
('vectorizer', TfidfVectorizer()),
('classifier', MultinomialNB()),
])
train(trial1, train, target)
错误如下:
----> 6 train(trial1, train, target)
<ipython-input-140-ac0e8d32795e> in train(classifier, X, y)
1 def train(classifier, X, y):
----> 2 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=33)
3
4 classifier.fit(X_train, y_train)
5 print ("Accuracy: %s" % classifier.score(X_test, y_test))
/home/manisha/anaconda3/lib/python3.5/site-packages/sklearn/model_selection/_split.py in train_test_split(*arrays, **options)
1687 test_size = 0.25
1688
-> 1689 arrays = indexable(*arrays)
1690
1691 if stratify is not None:
/home/manisha/anaconda3/lib/python3.5/site-packages/sklearn/utils/validation.py in indexable(*iterables)
204 else:
205 result.append(np.array(X))
--> 206 check_consistent_length(*result)
207 return result
208
/home/manisha/anaconda3/lib/python3.5/site-packages/sklearn/utils/validation.py in check_consistent_length(*arrays)
175 """
176
--> 177 lengths = [_num_samples(X) for X in arrays if X is not None]
178 uniques = np.unique(lengths)
179 if len(uniques) > 1:
/home/manisha/anaconda3/lib/python3.5/site-packages/sklearn/utils/validation.py in <listcomp>(.0)
175 """
176
--> 177 lengths = [_num_samples(X) for X in arrays if X is not None]
178 uniques = np.unique(lengths)
179 if len(uniques) > 1:
/home/manisha/anaconda3/lib/python3.5/site-packages/sklearn/utils/validation.py in _num_samples(x)
124 if len(x.shape) == 0:
125 raise TypeError("Singleton array %r cannot be considered"
--> 126 " a valid collection." % x)
127 return x.shape[0]
128 else:
TypeError: Singleton array array(<function train at 0x7f3a311320d0>, dtype=object) cannot be considered a valid collection.
____
不知道如何解决。任何帮助非常感谢。我看到了Vectorization: Not a valid collection,但不确定我是否理解这一点
这个错误的产生是因为你的函数train
掩盖了你的变量train
,因此它被传递给它自己。
说明:
你可以像这样定义一个变量列车:
train = df1.iloc[:,[4,6]]
然后在一些行之后,你定义一个这样的方法训练:
def train(classifier, X, y):
所以实际发生的是,你以前的train
版本是用新版本更新的。这意味着train
现在不会指向您想要的Dataframe对象,而是指向您定义的函数。在错误中它被清除。
array(<function train at 0x7f3a311320d0>, dtype=object)
请参阅错误语句中的函数列。
解:
重命名其中一个(变量或方法)。建议:将函数重命名为其他名称,如training
或training_func
或类似的东西。
我在另一个上下文(sklearn train_test_split
)中得到了同样的错误,原因很简单,我已经将位置参数作为关键字参数传递,这导致了被调用函数的误解。
第一个答案的变体 - 你可以得到这个的另一个原因是你的数据中的列名是否与包含数据的对象的属性/方法相同。
就我而言,我试图使用表面上合法的语法df.count来访问数据框“df”中的“count”列。
但是count被认为是pandas数据帧对象的属性。结果名称冲突会产生(相当令人困惑)错误。
我在sklearn.model_selection train_test_split
中得到了同样的错误,但在我的情况下,原因是我提供了一个从火花数据框派生到该函数的数组,而不是来自Pandas数据框的数组。当我使用诸如下面的toPandas()函数将我的数据转换为pandas数据帧,然后将Pandas df提供给train_test_split时,问题得到了解决。
pandas_df=spark_df.toPandas()
错误:
features_to_use = ['Feature1', 'Feature2']
x5D = np.array(spark_df[ features_to_use ])
y5D = np.array(spark_df['TargetFeature'])
X_train, X_test, y_train, y_test = train_test_split(x5D, y5D, train_size=0.8)
固定:
pandas_df=spark_df.toPandas()
features_to_use = ['Feature1', 'Feature2']
x5D = np.array(pandas_df[ features_to_use ])
y5D = np.array(pandas_df['TargetFeature'])
X_train, X_test, y_train, y_test = train_test_split(x5D, y5D, train_size=0.8)