• RDD——Action算子


    常用Action算子

    • countByKey
    • collect
    • reduce
    • fold
    • first
    • take
    • top
    • count
    • takeSample
    • takeOrdered
    • foreach
    • saveAsTextFile
    1. countByKey()

    返回值是一个 字典类型

    ## 读取文本文件
    rdd1 = sc.textFile(f"file:///{ROOT}/data/input/words.txt")
    rdd2 = rdd1.flatMap(lambda x:x.split(" ")).map(lambda x:(x,1))
    
    print(rdd2.collect())
    # [('hello', 1), ('spark', 1), ('hello', 1), ('hadoop', 1), ('hello', 1), ('flink', 1)]
    
    res = rdd2.countByKey()
    print(res)
    # defaultdict(, {'hello': 3, 'spark': 1, 'hadoop': 1, 'flink': 1})
    
    print(type(res))
    # 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    1. collect()

    RDD各分区数据统一收集到Driver 形成一个List对象

    确定数据量不是太大 不然会把Driver 内存撑爆

    1. reduce()

    将RDD数据集 进行聚合,返回值就是传入的数据同类型

    注意reduceByKey 返回值是RDD

    rdd = sc.parallelize([1, 2, 3, 4, 5])
    res = rdd.reduce(lambda a,b:a+b)
    res
    # 15
    
    • 1
    • 2
    • 3
    • 4
    1. fold

    在这里插入图片描述

    初始值 在分区内 和 分区间 都会作用

    一般不使用

    1. first()

    RDD的第一个元素

    1. take(N)

    取RDD的前N个元素 组合成List 返回

    1. top(N)

    对RDD数据进行降序排序 ,取得前N个 组合成List

    1. count()

    计算RDD有多少条数据,返回值是一个数字

    1. takeSample(参数1:True or False,参数2:采样数,参数3:随机种子

      参数1: True 表示可以重复取同一个数据

    随机抽样RDD数据 返回List

    1. takeOrdered(N,参数2)

      升序排列

      参数2 可以对排序数据进行改变 不改变本身

    对RDD进行排序 取前N个

    rdd = sc.parallelize([1, 3, 2, 4, 7, 9, 6], 1)
    
    print(rdd.takeOrdered(3))
    # [1,2,3]
    print(rdd.takeOrdered(3, lambda x: -x))
    # [9,7,6]
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    1. foreach(func)

    对RDD每一个元素 执行提供的逻辑操作(同map)也不改变传入的RDD 但是没有返回值

    rdd = sc.parallelize([1, 2, 3, 4, 5])
    rdd2 = rdd.foreach(lambda x:print(x*10) )
    # print(rdd.collect())
    print(rdd2)
    
    20
    10
    30
    40
    50
    None
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    1. saveasTextFile()
    rdd = sc.parallelize([1, 3, 2, 4, 7, 9, 6], 1)# 分区可以控制生成的文件数
    # rdd.saveAsTextFile("../data/output/out1")  保存写相对路径也不行 还是要绝对路径
    # 本地
    rdd.saveAsTextFile(f"file:///{ROOT}/data/output/out1")
    # hdfs
    rdd.saveTextFile("hdfs://hadoop102:8080/路径")
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    在这里插入图片描述

    foreach; saveAsTextFile 都是由分区(Excutor)直接执行的,跳过Driver

    其余的 Action 算子都会将结果发送至Driver

  • 相关阅读:
    使用GD32F207的高级定时器来产生PWM波出现的隐藏BUG
    HTML和CSS
    VS使用ImageMagick++库建立图像
    STM8的C语言编程(10)--+修改CPU的时钟
    10.9作业
    MyBatis --学习笔记
    源码编译安装部署lnmp
    2023江苏科技大学计算机考研信息汇总
    java-php-python-springboot小说网站计算机毕业设计
    渗透测试信息收集方法和工具分享
  • 原文地址:https://blog.csdn.net/JStana/article/details/128068896