官方文档:http://www.plumelog.com/zh-cn/docs/FASTSTART.html




在系统扩展字段里添加扩展字段,字段值为 orderid 显示值为 订单编号
查询的时候选择应用名,下面会显示扩展字段,可以通过扩展字段查询
MDC.put("orderid","1");
MDC.put("userid","4");
logger.info("扩展字段");
设置追踪码后,支持注解手动打点和切面全局打点
可以连接到机器上,查看实时日志

支持通过webhook自定义报警
查看和操作ES索引
根据用户反馈,目前搜集到最大的用户每日日志量已经到达3TB,并稳定运行
第一步:安装 redis 或者 kafka(一般公司redis足够) redis 官网:https://redis.io kafka:http://kafka.apache.org
第二步:安装 elasticsearch 官网下载地址:https://www.elastic.co/cn/downloads/past-releases
第三步:下载安装包,plumelog-server 下载地址:https://gitee.com/plumeorg/plumelog/releases
第四步:配置plumelog-server,并启动,redis和kafka作为队列模式下可以部署多个plumelog-server达到高可用,配置一样即可
第五步:后台查询语法详见plumelog使用指南
以mservice为例,查询线上问题时,提供的是用户Id或订单号
pom添加依赖
<dependency>
<groupId>com.plumeloggroupId>
<artifactId>plumelog-logbackartifactId>
<version>3.5.2version>
dependency>
logback.xml添加appender,注意区分测试和线上环境
<appenders>
<appender name="plumelog" class="com.plumelog.logback.appender.RedisAppender">
<appName>plumelogappName>
<redisHost>172.16.249.72:6379redisHost>
<redisAuth>123456redisAuth>
appender>
<appender name="plumelog" class="com.plumelog.logback.appender.KafkaAppender">
<appName>plumelogappName>
<kafkaHosts>172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092kafkaHosts>
appender>
<appender name="plumelog" class="com.plumelog.logback.appender.LiteAppender">
<appName>workerappName>
<plumelogHost>localhost:8891plumelogHost>
appender>
appenders>
<root level="INFO">
<appender-ref ref="plumelog"/>
root>
<springProfile name="dev">
<root level="INFO">
<appender-ref ref="plumelog" />
root>
springProfile>
<springProfile name="test">
<root level="INFO">
<appender-ref ref="plumelog" />
root>
springProfile>
<springProfile name="prod">
<root level="INFO">
<appender-ref ref="plumelog" />
root>
springProfile>
代码调整输出日志
下载server包,调整server配置文件
spring.application.name=plumelog_server
spring.profiles.active=test-confidential
server.port=8891
spring.thymeleaf.mode=LEGACYHTML5
spring.mvc.view.prefix=classpath:/templates/
spring.mvc.view.suffix=.html
spring.mvc.static-path-pattern=/plumelog/**
spring.boot.admin.context-path=admin
#值为4种 redis,kafka,rest,restServer
#redis 表示用redis当队列
#kafka 表示用kafka当队列
#rest 表示从rest接口取日志
#restServer 表示作为rest接口服务器启动
#ui 表示单独作为ui启动
#lite 简易模式启动不需要配置redis等
plumelog.model=kafka
#plumelog.lite.log.path=/Users/chenlongfei/lucene
# 如果使用kafka,启用下面配置
plumelog.kafka.kafkaHosts=broker.kafka.mid:443,broker.kafka.mid:443
plumelog.kafka.kafkaGroupName=logConsumer
#队列redis地址,model配置redis集群模式,哨兵模式用逗号隔开,队列redis不支持集群模式
#plumelog.queue.redis.redisHost=127.0.0.1:6379
#如果使用redis有密码,启用下面配置
#plumelog.queue.redis.redisPassWord=123456
#plumelog.queue.redis.redisDb=0
#哨兵模式需要配置的
#plumelog.queue.redis.sentinel.masterName=myMaster
#管理端redis地址 ,集群用逗号隔开,不配置将和队列公用
plumelog.redis.redisHost=127.0.0.1:8389,127.0.0.1:8388
#如果使用redis有密码,启用下面配置
#plumelog.redis.redisPassWord=123456
#plumelog.redis.redisDb=0
#哨兵模式需要配置的
#plumelog.redis.sentinel.masterName=myMaster
#如果使用rest,启用下面配置
#plumelog.rest.restUrl=http://127.0.0.1:8891/getlog
#plumelog.rest.restUserName=plumelog
#plumelog.rest.restPassWord=123456
#redis解压缩模式,开启后不消费非压缩的队列
#plumelog.redis.compressor=true
#elasticsearch相关配置,Hosts支持携带协议,如:http、https
plumelog.es.esHosts=127.0.0.1:9200
plumelog.es.shards=5
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
#日志索引建立方式day表示按天、hour表示按照小时
plumelog.es.indexType.model=day
#plumelog.es.maxShards=100000
#ES设置密码,启用下面配置
#plumelog.es.userName=elastic
#plumelog.es.passWord=elastic
#是否信任自签证书
#plumelog.es.trustSelfSigned=true
#是否hostname验证
#plumelog.es.hostnameVerification=false
#单次拉取日志条数
plumelog.maxSendSize=100
#拉取时间间隔,kafka不生效
plumelog.interval=100
#plumelog-ui的地址 如果不配置,报警信息里不可以点连接
plumelog.ui.url=http://plumelog.ck.api:8891
#管理密码,手动删除日志的时候需要输入的密码
admin.password=123456
#日志保留天数,配置0或者不配置默认永久保留
admin.log.keepDays=30
#链路保留天数,配置0或者不配置默认永久保留
admin.log.trace.keepDays=30
#登录配置,配置后会有登录界面
#login.username=admin
#login.password=admin