• hadoop03--flume集群搭建


     【flume版本为:apache-flume-1.8.0-bin.tar ----------- 链接: https://pan.baidu.com/s/1GLLRBA_TjJQs5SgO0Mx9DQ?pwd=wvmw 提取码: wvmw

    目录

    一,安装flume 

    二,配置环境变量

    1,修改/etc/profile文件 

    2,刷新/etc/profile文件

    3,测试环境变量配置是否成功

    4,修改flume-conf.properties文件

    5,启动flume


    一,安装flume 

    如果时间急迫,不想要使用虚拟机文件传输软件的话,可以直接在虚拟机上安装lrzsz来实现文件从windows母机传输到linux虚拟机上的功能。如下:

    1. [HadoopColony@hadoop1 ~]$ sudo yum install -y lrzsz
    2. [sudo] password for HadoopColony:
    3. Loaded plugins: fastestmirror
    4. ...
    5. Installed:
    6. lrzsz.x86_64 0:0.12.20-36.el7
    7. Complete!

    如果我们想要从虚拟机上下载文件到windows母机上的话可以使用:sz  文件名即可。

    接下来我们将压缩包解压到/opt/modules目录下

    [HadoopColony@hadoop1 softwares]$ tar -zxf  apache-flume-1.8.0-bin.tar.gz   -C /opt/modules/
    

    二,配置环境变量

    1,修改/etc/profile文件 

    1. [HadoopColony@hadoop1 modules]$ sudo vi /etc/profile
    2. [sudo] password for HadoopColony:
    3. [HadoopColony@hadoop1 modules]$ tail -5 /etc/profile
    4. export PATH=$PATH:$HADOOP_HOME/sbin
    5. #加入如下的命令可以使flume命令在任意目录下执行
    6. export FLUME_HOME=/opt/modules/apache-flume-1.8.0-bin
    7. export PATH=$PATH:$FLUME_HOME/bin
    8. [HadoopColony@hadoop1 modules]$

    2,刷新/etc/profile文件

    [HadoopColony@hadoop1 ~]$ source /etc/profile
    

    3,测试环境变量配置是否成功

     使用如下命令来测试我们的flume环境变量配置是否成功:

    [HadoopColony@hadoop1 ~]$ flume-ng
    

    4,修改flume-conf.properties文件

    如果/opt/modules/apache-flume-1.8.0-bin/conf/目录下没有该文件的话需要自行创建。因为我下载的包里面是有该文件的模板文件,因此我只需要就行cp一份进行修改即可。如下:

    1. [HadoopColony@hadoop1 ~]$ cd /opt/modules/apache-flume-1.8.0-bin/conf/
    2. [HadoopColony@hadoop1 conf]$ ll
    3. total 16
    4. -rw-r--r--. 1 HadoopColony HadoopColony 1661 Sep 15 2017 flume-conf.properties.template
    5. -rw-r--r--. 1 HadoopColony HadoopColony 1455 Sep 15 2017 flume-env.ps1.template
    6. -rw-r--r--. 1 HadoopColony HadoopColony 1568 Sep 15 2017 flume-env.sh.template
    7. -rw-r--r--. 1 HadoopColony HadoopColony 3107 Sep 15 2017 log4j.properties
    8. [HadoopColony@hadoop1 conf]$ cp flume-conf.properties.template flume-conf.properties
    9. [HadoopColony@hadoop1 conf]$ ll
    10. total 20
    11. -rw-r--r--. 1 HadoopColony HadoopColony 1661 Sep 7 17:19 flume-conf.properties
    12. -rw-r--r--. 1 HadoopColony HadoopColony 1661 Sep 15 2017 flume-conf.properties.template
    13. -rw-r--r--. 1 HadoopColony HadoopColony 1455 Sep 15 2017 flume-env.ps1.template
    14. -rw-r--r--. 1 HadoopColony HadoopColony 1568 Sep 15 2017 flume-env.sh.template
    15. -rw-r--r--. 1 HadoopColony HadoopColony 3107 Sep 15 2017 log4j.properties
    16. [HadoopColony@hadoop1 conf]$ vim flume-conf.properties #如果没有vim的话可以使用yum install vim,或者是直接使用vi也行。
    17. [HadoopColony@hadoop1 conf]$ tail -25 flume-conf.properties
    18. # In this case, it specifies the capacity of the memory channel
    19. agent.channels.memoryChannel.capacity = 100
    20. #单节点的flume部署,以上不需要手动写,以下的内容需要写进去。
    21. #定义Agent的三个组件并起别名
    22. a1.sources = r1
    23. a1.channels = c1
    24. a1.sinks = k1
    25. # source组件配置
    26. a1.sources.r1.type = netcat
    27. a1.sources.r1.bind = localhost
    28. a1.sources.r1.port = 44444
    29. # channel组件配置
    30. a1.channels.c1.type = memory
    31. a1.channels.c1.capacity = 100
    32. a1.channels.c1.transactionCapacity = 100
    33. # sink组件配置
    34. a1.sinks.k1.type = logger
    35. # 绑定source和sink到channel上
    36. a1.sources.r1.channels = c1
    37. a1.sinks.k1.channel = c1

     以上就是我们单节点的flume部署,允许用户生成数据并发送到flume,flume接收到数据后会输出到控制台。配置好了后,接下来我们在任意的目录下执行启动flume命令。

    5,启动flume

    在任意目录执行:flume-ng agent --conf  conf  --conf-file   /opt/modules/apache-flume-1.8.0-bin/conf/flume-conf.properties --name   a1 -Dflume.root.logger=INFO,console

    1. [HadoopColony@hadoop1 conf]$ flume-ng agent --conf conf --conf-file /opt/modules/apache-flume-1.8.0-bin/conf/flume-conf.properties --name a1 -Dflume.root.logger=INFO,console

    当我们启动成功后,这个ssh窗口就无法编辑了,因此我们需要重新开一个ssh窗口,并执行如下命令,来连接本地44444端口

    1. [HadoopColony@hadoop1 ~]$ telnet localhost 44444 #连接本地44444端口
    2. Trying ::1...
    3. telnet: connect to address ::1: Connection refused
    4. Trying 127.0.0.1...
    5. Connected to localhost.
    6. Escape character is '^]'.

    如果使用了telnet命令后出现如下界面的:

    表示我们没有安装相应的telnet服务及客户端,因此我们可以进行如下的下载

    1. [HadoopColony@hadoop1 ~]$ sudo yum install telnet-server #安装telnet服务
    2. ...
    3. Running transaction
    4. Installing : 1:telnet-server-0.17-66.el7.x86_64 1/1
    5. Verifying : 1:telnet-server-0.17-66.el7.x86_64 1/1
    6. Installed:
    7. telnet-server.x86_64 1:0.17-66.el7
    8. Complete!
    9. [HadoopColony@hadoop1 ~]$ sudo yum install telnet.* #安装telnet客户端
    10. ...
    11. Running transaction
    12. Installing : 1:telnet-0.17-66.el7.x86_64 1/1
    13. Verifying : 1:telnet-0.17-66.el7.x86_64 1/1
    14. Installed:
    15. telnet.x86_64 1:0.17-66.el7
    16. Complete!

    或者是直接安装telnet组件:sudo yum install -y telnet 

    安装成功后,再使用telnet  localhost  44444命令连接44444端口即可。

    连接上后,我们继续输入任意的字符串(这里输入“keep  coding”)后按一下回车键,就会向本地的flume发送数据,

     然后我们回到之前启动了flume却无法编辑的ssh窗口就可以看到,控制台成功的打印出了接收到的数据”keep coding“,如下所示:

    以上就是简单的flume集群搭建配置,有问题的请在评论区留言。 

  • 相关阅读:
    复合索引abc,查询的时候查c a和ac都能用到索引吗
    学习笔记-微信支付
    tidb-cdc同步到kafka报错cdc报错CDC:ErrKafkaNewSaramaProducer
    文件上传四次绕过
    基于springboot在线考试报名系统毕业设计源码031706
    Mybatis-plus中Service和Mapper
    Day804.原型模式与享元模式 -Java 性能调优实战
    企业防盗版,如何保障上网安全
    hive笔记(四):查询、分组-运算符/limit/where/like/rlike/group by/having
    TimeGPT:时序预测领域终于迎来了第一个大模型
  • 原文地址:https://blog.csdn.net/weixin_53046747/article/details/126747247