Random java.util.ConcurrentModificationException: null



>我有一个每 5 分钟运行一次并从缓存中删除文件的方法

private HashMap<String, CachedFile> cache = new HashMap<>();
@Scheduled(fixedDelay = 300000)
public void deleteFileCache() {
//remove files last accessed > 12h
cache.entrySet().stream().filter(entry -> LocalDateTime.now().minus(12, ChronoUnit.HOURS)
.isAfter(entry.getValue().getLastAccessed())).forEach(entry -> {
File file = new File(tempFolder, entry.getKey());
boolean deleted = file.delete();
});
//remove entries from HashMap
cache.entrySet().removeIf(entry -> LocalDateTime.now().minus(12, ChronoUnit.HOURS)
.isAfter(entry.getValue().getLastAccessed()));
//if little space left remove oldest files
long freeSpace = tempFolder.getFreeSpace();
while (freeSpace < 6000000000L) {
Optional<String> fileToDelete = cache.entrySet().stream()
.min(Comparator.comparing(stringCachedFileEntry -> stringCachedFileEntry.getValue().getLastAccessed()))
.map(Map.Entry::getKey);
fileToDelete.ifPresent(filename -> {
new File(tempFolder, filename).delete();
cache.remove(filename);
});
freeSpace = tempFolder.getFreeSpace();
}
}

此方法每天大约 2-3 次出现 ConcurrentModificationException 失败。我不明白为什么,因为该方法只能同时运行一次,而且我没有在从 HashMap 中删除的同时进行迭代。

它在第.min(Comparator.comparing(stringCachedFileEntry ->...行失败

java.util.ConcurrentModificationException: null
at java.util.HashMap$EntrySpliterator.forEachRemaining(HashMap.java:1704) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.copyInto(AbstractPipeline.java:482) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.wrapAndCopyInto(AbstractPipeline.java:472) ~[na:1.8.0_212]
at java.util.stream.ReduceOps$ReduceOp.evaluateSequential(ReduceOps.java:708) ~[na:1.8.0_212]
at java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:234) ~[na:1.8.0_212]
at java.util.stream.ReferencePipeline.reduce(ReferencePipeline.java:479) ~[na:1.8.0_212]
at java.util.stream.ReferencePipeline.min(ReferencePipeline.java:520) ~[na:1.8.0_212]
at ch.my.app.server.FileCacheService.deleteFileCache(FileCacheService.java:113) ~[classes!/:1.0-SNAPSHOT]
ConcurrentModificationException

不仅在迭代时通过迭代集中的删除来引发。插入也会导致它。因此,您的可能原因是您的 Spring 引导控制器在没有与deleteFileCache方法同步的情况下写入映射。

显而易见的解决方案是使用一些线程安全映射而不是HashMap,例如几个评论中提到的ConcurrentHashMap

例如,Spliterator的文档说:

。绑定后,Spliterator 应尽最大努力投掷ConcurrentModificationException结构干扰是否 检测。。

从堆栈跟踪来看,min方法似乎使用了 Spliterator。

结构更改包括插入和删除(它们可能不包括替换映射中仅更改值的映射(。

链接:Spliterator文档

最新更新