• Filebeat+Kafka+ELK


    ELK+Kafka+zookeeper+Filebeat(nginx)

    在这里插入图片描述

    ------------------------------ ELK+Kafka+zookeeper+Filebeat(nginx) --------------------------------
    
    192.168.11.150	es1 	Elasticsearch+Elasticsearch-head+phantomjs+node
    192.168.11.151 	es2 	Elasticsearch+Elasticsearch-head+phantomjs+node
    192.168.11.152 	logstash+kibana
    192.168.11.144 	zookeeper+kafka
    192.168.11.145	zookeeper+kafka
    192.168.11.146	zookeeper+kafka
    192.168.11.137 	filebeat+nginx
    
    192.168.11.137    filebeat+nginx
    
    [root@test2 ~]# cd /opt/
    [root@test2 ~]# tar -xf filebeat-6.7.2-linux-x86_64.tar.gz
    [root@test2 ~]# mv filebeat-6.7.2-linux-x86_64 filebeat
    [root@test2 ~]# cd filebeat/
    [root@test2 filebeat]# pwd
    /opt/filebeat
    [root@test2 filebeat]# vim filebeat.yml 
    filebeat.prospectors:
    - type: log
      enabled: true
      paths:
        - /var/log/nginx/access_log
      tags: ["access"]
      
    - type: log
      enabled: true
      paths:
        - /var/log/nginx/error_log
      tags: ["error"]
    #添加输出到 Kafka 的配置
    161行
    output.kafka:
      enabled: true
      hosts: ["192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"]    #指定 Kafka 集群配置
      topic: "nginx"    #指定 Kafka 的 topic
      
    #启动 filebeat
    nohup ./filebeat -e -c filebeat.yml> filebeat.out &
    
    192.168.11.152  
    [root@apache-elk3 ~]# cd /etc/logstash/conf.d/
    [root@apache-elk3 conf.d]# vim kafka.conf 
    input {
        kafka {
            bootstrap_servers => "192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"  
    		#kafka集群地址
            topics  => "nginx"     
    		#拉取的kafka的指定topic
            type => "nginx_kafka"  
    		#指定 type 字段
            codec => "json"        
    		#解析json格式的日志数据
    		auto_offset_reset => "latest"  
    		#拉取最近数据,earliest为从头开始拉取
    		decorate_events => true   
    		#传递给elasticsearch的数据额外增加kafka的属性数据
        }
    }
    
    output {
      if "access" in [tags] {
        elasticsearch {
          hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
          index => "nginx_access-%{+YYYY.MM.dd}"
        }
      }
      
      if "error" in [tags] {
        elasticsearch {
          hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
          index => "nginx_error-%{+YYYY.MM.dd}"
         }
       }
    }
    
    #启动 logstash
    logstash -f kafka.conf --path.data /opt/test9 &
    
    4.浏览器访问 http://192.168.39.60:5601 登录 Kibana,
    单击“Create Index Pattern”按钮添加索引“filebeat_test-*”,单击 “create” 按钮创建,
    单击 “Discover” 按钮可查看图表信息及日志信息。
    

    x Pattern”按钮添加索引“filebeat_test-*”,单击 “create” 按钮创建,
    单击 “Discover” 按钮可查看图表信息及日志信息。

    
    
    
    
    
    
  • 相关阅读:
    MySQL基础三问:底层逻辑、正在执行、日志观察
    力扣-228.汇总区间
    ElasticSearch(三)
    起立科技(起鸿)在第25届高交会上展示透明OLED技术创新
    ssm毕设项目职业技能培训网站2adx1(java+VUE+Mybatis+Maven+Mysql+sprnig)
    C语言之实现贪吃蛇小游戏篇(2)
    数据结构与算法学习(day6)——栈
    Fiori VS code 连接配置本地SDK yaml 文件配置
    即时零售业态下如何实现自动做账?
    c-raft分布式存储方案
  • 原文地址:https://blog.csdn.net/qq_52448810/article/details/140998340