sample.int(m, k) 中的错误:无法获取大于总体的样本

问题描述 投票:0回答:2

首先,我要说的是,我对机器学习、kmeans 和 r 相当陌生,这个项目是一种了解更多相关知识的方法,也是向我们的 CIO 展示这些数据的一种方法,这样我就可以在开发中使用它新的帮助台系统。

我有一个 60K 行的文本文件。该文件包含教师在 3 年内输入的帮助台票证的标题。

我想创建一个 r 程序来获取这些标题并创建一组类别。例如,与打印问题相关的术语,或与投影仪灯泡相关的一组术语。我使用 r 打开文本文档,清理数据,删除停用词和其他我认为不必要的词。我已经获得了频率 >= 400 的所有术语的列表,并将它们保存到文本文件中。

但现在我想将(如果可以完成或合适的话)kmeans 聚类应用到同一数据集,看看我是否可以提出类别。

下面的代码包含将写出使用的术语列表 >= 400 的代码。它位于末尾,并被注释掉。

library(tm) #load text mining library
library(SnowballC)
options(max.print=5.5E5) 
setwd('c:/temp/') #sets R's working directory to near where my files are
ae.corpus<-Corpus(DirSource("c:/temp/"),readerControl=list(reader=readPlain))
summary(ae.corpus) #check what went in
ae.corpus <- tm_map(ae.corpus, tolower)
ae.corpus <- tm_map(ae.corpus, removePunctuation)
ae.corpus <- tm_map(ae.corpus, removeNumbers)
ae.corpus <- tm_map(ae.corpus, stemDocument, language = "english")  
myStopwords <- c(stopwords('english'), <a very long list of other words>)
ae.corpus <- tm_map(ae.corpus, removeWords, myStopwords) 

ae.corpus <- tm_map(ae.corpus, PlainTextDocument)

ae.tdm <- DocumentTermMatrix(ae.corpus, control = list(minWordLength = 5))


dtm.weight <- weightTfIdf(ae.tdm)

m <- as.matrix(dtm.weight)
rownames(m) <- 1:nrow(m)

#euclidian 
norm_eucl <- function(m) {
  m/apply(m,1,function(x) sum(x^2)^.5)
}
m_norm <- norm_eucl(m)

results <- kmeans(m_norm,25)

#list clusters

clusters <- 1:25
for (i in clusters){
  cat("Cluster ",i,":",findFreqTerms(dtm.weight[results$cluster==i],400,"\n\n"))
}


#inspect(ae.tdm)
#fft <- findFreqTerms(ae.tdm, lowfreq=400)

#write(fft, file = "dataTitles.txt",
#      ncolumns = 1,
#      append = FALSE, sep = " ")

#str(fft)

#inspect(fft)

当我使用 RStudio 运行此程序时,我得到:

> results <- kmeans(m_norm,25)

sample.int(m, k) 中的错误:当“replace = FALSE”时,无法获取大于总体的样本

我不太确定这意味着什么,而且我在网上也没有找到很多关于这方面的信息。有什么想法吗?

蒂亚

r machine-learning data-mining k-means text-mining
2个回答
0
投票

您正在读取多行的单个文件,而不是目录中的多个文件。而不是

ae.corpus<-Corpus(DirSource("c:/temp/"),readerControl=list(reader=readPlain))` 

你需要使用

text <- readLines("c:\\temp\\your_file_name", n = -1)
ae.corpus<-Corpus(VectorSource(text),readerControl=list(reader=readPlain)) 

然后你将得到一个包含 60K 文件的语料库,而不是 1 个包含 60k 行的文件。


0
投票

我遇到了同样的问题,最后发现目标簇数大于某些类型的数据行。因为你的方式中每种类型的数据都可能小于目标簇数。

© www.soinside.com 2019 - 2024. All rights reserved.