基于es构建实时日志检索平台-.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于es构建实时日志检索平台-

基于es构建实时日志检索平台系统架构核心技术日志采集日志转发日志搜索ES优化日志采集日志采集文件监控监控文件的新增、删除、修改、备份事件,及时响应并生成采集任务有限资源的最大化利用:根据文件的变更频率动态调整采集任务的采集频率,如:文件超过1小时未变更,则每分钟执行一次文件状态监控,文件变更频率较高的,每秒钟执行一次文件状态监控并生成采集任务文件采集采集内容的准确性:摘要算法—文件唯一标识,在文件备份事件发生时,保证文件内容的连续性、准确性数据发送流量均衡:通过统一调度中心(统一服务)获取流量最小的转发中心地址,并将数据发送到该转发中心,确保各转发中心的流量均衡。日志转发转发中心:日志生产方与日志消费方的桥梁四种发送策略基于日志分类的流量均衡发送同一段时间内,转发中心集群所有主机将同一种数据类型发送到接收器集群的同一个IP,比如:HDFS或JSS的接收器基于日志分类的轮询发送同一数据类型在同一转发器上一段时间内只往接收器的一个IP发送,不同转发器可以发送到不同的IP上,比如日志查询接收器日志转发基于IP地址的轮询发送向接收器的所有IP轮询发送数据,如果某IP不可用,将被剔除轮询队列,等到监测OK后,又自动添加到轮询发送数据IP队列中,比如UMP心跳数据基于IP地址的并发发送同一种数据并发发送到指定接收器,比如:UMP的JVM数据支持将一份数据同时转发到多个消费方(接收器)日志搜索应用索引策略:减少日志创建索引压力的有效手段按应用所属的系统级别定制索引策略日志搜索ES优化内存优化有限的机器资源第一个跳出来出问题是内存,lucene查询与建索引的模块jvm 分配16G内存,经常out of memory。优化方向:1.lucene cache使用方式调整为filter cache2.gc 优化ES优化lucene merge的困扰有限的机器资源第二个跳出来出问题是cpu,24 core 机器 cpu load达到200,最高500。问题根源:1.Lucene 索引同时只能由一个线程执行写操作2.lucene要根据条件进行索引段合并(merge),以提高查询效率当如此大的数据量一旦触发merge滚雪球效应的时候,可能会持续几分钟。导致后续发送过来的数据等待写入,同时数据也会挤压在内存,也会导致内存问题。ES优化lucene merge的困扰优化方向: 1.将一次长merge合并操作尽量分散在多次merge合并操作中调整lucene merge操作相关参数 2.将日志量大的应用分布到多个lucene 索引中,同时避免不同大应用分布到相同lucene 索引上。调整参数说明调整前值调整后值mergeFactor当大小几乎相当的段的数量达到此值的时候,开始合并2010maxMergeSize当一个段的大小大于此值的时候,就不再参与合并4G3G谢谢

文档评论(0)

70后老哥 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档