• DataNode进入Stale状态问题排查


    先说下DataNode为啥会处于Stale状态
    默认情况下,DataNode每3s向NameNode发送一次心跳,如果NameNode持续30s没有收到心跳,就把DataNode标记为Stale状态;再过10分钟还没收到心跳,就标记为dead状态

    NameNode有个jmx指标hadoop_namenode_numstaledatanodes,进入statle状态的DataNode数量,正常情况这个值应该是0,如果不是0则应该触发告警

    DataNode有个jmx指标hadoop_datanode_heartbeatstotalnumops,表示心跳发送次数,通过prometheus函数increase(hadoop_datanode_heartbeatstotalnumops[1m]),可以得出1分钟内的心跳发送次数

    监控发现有个节点存在心跳次数为0的情况:
    在这里插入图片描述
    观察这段时间DataNode的JVM状态,发现GC非常频繁,1分钟高达90次:
    在这里插入图片描述
    再查看这个节点的日志,发现有一条警告日志:

    在这里插入图片描述

    主要代码在org.apache.hadoop.hdfs.server.datanode.DirectoryScanner.scan()
    大致是DataNode会定期扫描磁盘上的数据块,检查是否和内存中的数据块信息一致。开始对比前要先获取锁,完成后释放锁时会进行一个检查,如果持有锁的时间超过阈值(300ms),就会打印警告日志
    这里锁持有时间为36s,有点太长了,猜测原因是DataNode存储配置不合理,只配置了一块磁盘,且数据量较大,数据块非常多,导致对比耗时比较久
    而这个时间和DataNode心跳缺失的时间也正好相符
    抽查了几次出现心跳发送异常的时间点,都有发现这个警告日志
    大概率就是因为这个影响到心跳发送

    官方也有对应的issue:

    https://www.mail-archive.com/hdfs-dev@hadoop.apache.org/msg43698.html
    https://issues.apache.org/jira/browse/HDFS-16013
    https://issues.apache.org/jira/browse/HDFS-15415
    在3.2.2, 3.3.1, 3.4.0版本中解决了这个问题,除了优化性能,最关键是把锁去掉了,及时耗时再久,也不会因为长时间持有锁而影响DataNode健康状态

    升级版本对我们来说难度比较大
    先继续观察,看这个情况会不会造成其他更大的影响
    除了升级版本,把DataNode改为多个目录,每个目录一块较小的磁盘,应该也能起到优化效果

    参考文章:
    如何识别datanode stale

    谈一谈 DataNode 如何向 NameNode 发送心跳的
    DataNode之DirectoryScanner分析

  • 相关阅读:
    英语语法汇总(13.虚拟语气)
    Linux压缩打包命令——tar、zip、unzip(精简)
    快速排序及其变体
    「贪心笔记」通过最少操作次数使得数组的和相等
    macOS Outlook 查看邮件的源码 HTML源码
    Nuxt3+Vite批量引入图片
    前端瀑布流效果
    【VASP】KPOINTS文件介绍
    分身空间(应用多开)会员版,提供更便捷的应用多开体验
    python命令行传递参数的两种方式!
  • 原文地址:https://blog.csdn.net/li281037846/article/details/125410380