apache pig -在不破坏文件格式的情况下,通过密钥提取tiff -vectors



我在seq2sparse提供的输出格式中有大约200000个tiff向量。现在我需要提取500,但不像split-function那样是随机的。我知道其中500个的键值,我需要它们的数据格式与seq2sparse中的相同。当我打开包含200,000个条目的sequencefile时,我可以看到键是用org.apache.hadoop.io.Text与org.apache.mahout.math.VectorWritable.

但是当我尝试使用https://github.com/kevinweil/elephant-bird/blob/master/mahout/src/main/java/com/twitter/elephantbird/pig/mahout/VectorWritableConverter.java

https://github.com/kevinweil/elephant-bird/blob/master/pig/src/main/java/com/twitter/elephantbird/pig/store/SequenceFileStorage.java

在Pig Latin中

用于读写它们,输出的键和值都是org.apache.hadoop.io.Text。

我确实需要这种格式的500个条目,因为我想在trainnb和testnb中使用它们。


基本上,它将足以知道如何做一些事情,如反向mahout seqdumper

虽然没有特定的Mahout命令来完成此操作,但您可以使用Mahout的:

编写一个相对简单的实用程序函数。
org.apache.mahout.common.Pair;
org.apache.mahout.common.iterator.sequencefile.SequenceFileIterable;
org.apache.mahout.math.VectorWritable;  

:

org.apache.hadoop.io.SequenceFile;
org.apache.hadoop.io.Text;
com.google.common.io.Closeables;

你可以这样做:

// load up the 500 desired keys with some function
Vector<Text>desiredKeys = getDesiredKeys();
//create a new SequenceFile writer for the 500 Desired Vectors 
SequenceFile.Writer writer =
        SequenceFile.createWriter(fs, conf, output500filePath ,
                                  Text.class,
                                  VectorWritable.class);         
try {
  // create an iterator over the tfidfVector sequence file 
  SequenceFileIterable<Text, VectorWritable>seqFileIterable =
          new SequenceFileIterable<Text, VectorWritable>(
              tfidfVectorPath, true, conf)
  // loop over tfidf sequence file and write out only Pairs with keys
  // contained in the desiredKeys Vector to the output500file 
  for (Pair<Text, VectorWritable> pair : seqFileIterable) {
      if(desiredKeys.contains(pair.getFirst())){
            writer.append(pair.getFirst(),pair.getSecond());
      }
  }
}finally {
  Closeables.close(writer, false);
}

并使用"output500file"的路径作为trainnb的输入。使用vector.contains()并不是最有效的方法,但这是一般的思路。

相关内容

  • 没有找到相关文章

最新更新