为什么我提取的规则置信度都是1.0?

问题描述 投票:0回答:1

我有以下数据集:

[A,D]
[C,A,B]
[A]
[A,E,D]
[B,D]

我正在尝试使用 Spark Mllib 使用频繁模式挖掘来提取一些关联规则。为此,我有以下代码:

val transactions = sc.textFile("/user/cloudera/teste")

import org.apache.spark.mllib.fpm.AssociationRules
import org.apache.spark.mllib.fpm.FPGrowth.FreqItemset
  
val freqItemsets = transactions.repartition(10).map(_.split(",")).flatMap(xs => 
    (xs.combinations(1) ++ xs.combinations(2) ++ xs.combinations(3) ++ xs.combinations(4) ++ xs.combinations(5)).filter(_.nonEmpty).map(x => (x.toList, 1L))   ).reduceByKey(_ + _).map{case (xs, cnt) => new FreqItemset(xs.toArray, cnt)}

val ar = new AssociationRules().setMinConfidence(0.8)

val results = ar.run(freqItemsets)

results.collect().foreach { rule =>
  println("[" + rule.antecedent.mkString(",")
    + "=>"
    + rule.consequent.mkString(",") + "]," + rule.confidence)}

但是提取的所有规则的置信度都等于1:

[[C=>A],1.0
[[C=>B]],1.0
[A,B]=>[C],1.0
[E=>D]],1.0
[E=>[A],1.0
[A=>B]],1.0
[A=>[C],1.0
[[C,A=>B]],1.0
[[A=>D]],1.0
[E,D]=>[A],1.0
[[A,E=>D]],1.0
[[C,B]=>A],1.0
[[B=>D]],1.0
[B]=>A],1.0
[B]=>[C],1.0

我真的没有看到我的代码中存在的问题...

我计算置信度的误差是多少?

scala data-mining apache-spark-mllib
1个回答
0
投票

您的数据集太小。数据中任何项目的最大频率是 3。因此您可以有置信度 0、1/3、1/2、2/3、1。只有 1 大于 0.8。

尝试将最小置信度设置为0.6,那么你实际上可以得到

[A]=>[D] confidence 0.666
© www.soinside.com 2019 - 2024. All rights reserved.