我在seq2sparse提供的输出格式中有大约200000个tiff向量。现在我需要提取500,但不像split-function那样是随机的。我知道其中500个的键值,我需要它们的数据格式与seq2sparse中的相同。当我打开包含200,000个条目的sequencefile时,我可以看到键是用org.apache.hadoop.io.Text与org.apache.mahout.math.VectorWritable.
但是当我尝试使用https://github.com/kevinweil/elephant-bird/blob/master/mahout/src/main/java/com/twitter/elephantbird/pig/mahout/VectorWritableConverter.java
和
https://github.com/kevinweil/elephant-bird/blob/master/pig/src/main/java/com/twitter/elephantbird/pig/store/SequenceFileStorage.java 在Pig Latin中用于读写它们,输出的键和值都是org.apache.hadoop.io.Text。
我确实需要这种格式的500个条目,因为我想在trainnb和testnb中使用它们。
基本上,它将足以知道如何做一些事情,如反向mahout seqdumper
虽然没有特定的Mahout命令来完成此操作,但您可以使用Mahout的:
编写一个相对简单的实用程序函数。org.apache.mahout.common.Pair;
org.apache.mahout.common.iterator.sequencefile.SequenceFileIterable;
org.apache.mahout.math.VectorWritable;
:
org.apache.hadoop.io.SequenceFile;
org.apache.hadoop.io.Text;
com.google.common.io.Closeables;
你可以这样做:
// load up the 500 desired keys with some function
Vector<Text>desiredKeys = getDesiredKeys();
//create a new SequenceFile writer for the 500 Desired Vectors
SequenceFile.Writer writer =
SequenceFile.createWriter(fs, conf, output500filePath ,
Text.class,
VectorWritable.class);
try {
// create an iterator over the tfidfVector sequence file
SequenceFileIterable<Text, VectorWritable>seqFileIterable =
new SequenceFileIterable<Text, VectorWritable>(
tfidfVectorPath, true, conf)
// loop over tfidf sequence file and write out only Pairs with keys
// contained in the desiredKeys Vector to the output500file
for (Pair<Text, VectorWritable> pair : seqFileIterable) {
if(desiredKeys.contains(pair.getFirst())){
writer.append(pair.getFirst(),pair.getSecond());
}
}
}finally {
Closeables.close(writer, false);
}
并使用"output500file"的路径作为trainnb的输入。使用vector.contains()并不是最有效的方法,但这是一般的思路。