Hadoop 1.0.4分布式缓存错误



我正在MapReduce中构建一个日志分析程序。为此,我使用了MaxMind GeoIP数据。现在我想把GeoIP数据放到分布式缓存中。我正在开发我的应用程序在eclipse。这是我正在做的

Job job = new Job();        
DistributedCache.addCacheFile(new URI(args[3]), job.getConfiguration());

其中args[3]有路径

我在这里使用它

protected void setup(Context context) {
    try {
        //String dbfile = "GeoIP//GeoIPCountry.dat";
        org.apache.hadoop.conf.Configuration conf =  context.getConfiguration();
        Path[] dbfile = DistributedCache.getLocalCacheFiles(conf); 
        // GEOIP_MEMORY_CACHE - load database into memory, faster
        // performance but uses more memory, Increase the JVM heap Size
        cl = new LookupService(dbfile.toString(), LookupService.GEOIP_MEMORY_CACHE);
    } catch (Exception e) {
        System.err.println("Error opening GeoIP data file.");
        System.err.println(e);
        System.exit(2);
    }
}

但在运行时,我得到以下错误

Exception in thread "main" java.lang.Error: Unresolved compilation problem: 
The method addCacheFile(URI, Configuration) in the type DistributedCache is not applicable for the arguments (URI, Configuration)

我不知道出了什么问题。请帮助

它选错了类:

The method addCacheFile(URI, Configuration) in the type DistributedCache is not applicable for the arguments (URI, Configuration)

检查URIConfiguration类的导入。

根据文件,它们应该是java.net.URIorg.apache.hadoop.conf.Configuration

我想你可能把jdk中的javax.security.auth.login.Configuration类弄乱了。

相关内容

  • 没有找到相关文章

最新更新