我想使用Flink- hbase插件读取数据,然后作为Flink机器学习算法的输入,分别是SVM和MLR。现在,我首先将提取的数据写入临时文件,然后通过libSVM方法读取它,但我想应该有一个更复杂的方法。
你有一个代码片段或一个想法如何做到这一点?
不需要将数据写入磁盘,然后使用MLUtils.readLibSVM
读取。原因如下:
MLUtils.readLibSVM
期望一个文本文件,其中每行是带有其相关标签的稀疏特征向量。它使用以下格式来表示标签-特征向量对:
<line> .=. <label> <feature>:<value> <feature>:<value> ... <feature>:<value> # <info>
其中<feature>
为特征向量中后续value
的索引。MLUtils.readLibSVM
可以读取这种格式的文件,并转换LabeledVector
实例中的每一行。因此,在读取了a libSVM文件之后,您将获得一个DataSet[LabeledVector]
。这正是SVM
和MultipleLinearRegression
预测器所需的输入格式。
但是,根据您从HBase获得的数据格式,您首先必须将数据转换为libSVM
格式。否则,MLUtils.readLibSVM
将无法读取写入的文件。如果您转换数据,那么您也可以直接将数据转换为DataSet[LabeledVector]
并将其用作Flink的ML算法的输入。这避免了不必要的磁盘周期。
如果您从HBase中获得了一个DataSet[String]
,其中每个字符串都具有libSVM
格式(参见上面的规范),那么您可以使用下面的map函数在HBase DataSet
上应用map
操作。
val hbaseInput: DataSet[String] = ...
val labelCOODS = hbaseInput.flatMap {
line =>
// remove all comments which start with a '#'
val commentFreeLine = line.takeWhile(_ != '#').trim
if(commentFreeLine.nonEmpty) {
val splits = commentFreeLine.split(' ')
val label = splits.head.toDouble
val sparseFeatures = splits.tail
val coos = sparseFeatures.map {
str =>
val pair = str.split(':')
require(
pair.length == 2,
"Each feature entry has to have the form <feature>:<value>")
// libSVM index is 1-based, but we expect it to be 0-based
val index = pair(0).toInt - 1
val value = pair(1).toDouble
(index, value)
}
Some((label, coos))
} else {
None
}
// Calculate maximum dimension of vectors
val dimensionDS = labelCOODS.map {
labelCOO =>
labelCOO._2.map( _._1 + 1 ).max
}.reduce(scala.math.max(_, _))
val labeledVectors: DataSet[LabeledVector] =
labelCOODS.map{ new RichMapFunction[(Double, Array[(Int, Double)]), LabeledVector] {
var dimension = 0
override def open(configuration: Configuration): Unit = {
dimension = getRuntimeContext.getBroadcastVariable(DIMENSION).get(0)
}
override def map(value: (Double, Array[(Int, Double)])): LabeledVector = {
new LabeledVector(value._1, SparseVector.fromCOO(dimension, value._2))
}
}}.withBroadcastSet(dimensionDS, DIMENSION)
这将把libSVM格式的数据转换为LabeledVectors
的数据集。