在我们的Sitecore 8.2安装中,我们使用Solr 5.1.0作为索引系统。最近,我们有一些这样的问题:
[sitecore_analytics_index] org.apache.solr.common.solrexception; org.apache.solr.common.solrexception:错误打开新搜索器 引起:org.apache.lucene.store.alreadyclosedexception:this IndexWriter已关闭 引起的:
选择给Solr的堆阈值的正确方法是什么?
目前,在不同的内核中,唯一超过几百兆字节的核心是sitecore_analytics_index
,其大小为32.67 GB,这些功能:
- num文档:102015908
- 最大文档:105114766
- 堆内存使用:-1
- 已删除的文档:3098858
- 版本:5563749
- inmand:org.apache.solr.core.nrtcachingdirectoryfactory
- org.apache.lucene.store.nrtcachingDirectory:nrtcachingDirectory(lockfactory = org.apache.lucene.lucene.store.store.nativefslockfactory@2E51764C; maxcachemb = 48.0.0maxmergesizemb = 4.0(
服务器具有6 GB的RAM,其中4 GB专用于Java,下面是JVM的一些ARG:
-xx: cmsparallelRemarkenabled-xx: cmsscavengebeforeremark-xx: parallellerefprocenabled-xx: printgcapplicationstoppedtime-xx: printgcdateSteStps-xx- xxx:pretenuresizethreshold = 64m-xx:survivorratio = 4-xx:targetsurvivorratio = 90-xms4g-xmx4g-xmx4g-xss256k-verbose:gc
基于此数量的数据,哪个是堆的正确配置?
适量的记忆分配给JVM的8-16 GB中的6到12 GB。
您已经有一个很大的分析索引,随着时间的流逝,由于索引写入和提交操作的大量,您将继续体验高内存利用率。我建议您考虑将大型索引分解或使用Solrcloud,该索引在您的Sitecore 8.2版中提供了实验性支持,请在此处阅读更多。