news 2026/4/18 6:29:19

大数据Spark(八十):Action行动算子fold和aggregate使用案例

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大数据Spark(八十):Action行动算子fold和aggregate使用案例

文章目录

Action行动算子fold和aggregate使用案例

一、fold使用案例

二、aggregate使用案例


Action行动算子fold和aggregate使用案例

一、fold使用案例

fold用于对RDD中的元素进行聚合操作,最终返回一个结果。类似reduce算子,但与reduce不同的是其可以对每个分区中的数据提供一个初始值,让分区中的数据与该初始值进行聚合,最终该初始值还会与各个分区的结果再次聚合。

fold的函数签名如下:

def fold(zeroValue: T)(op: (T, T) => T): T
  • zeroValue:聚合操作的初始值,类型为 T。
  • op:用于合并元素的二元操作函数。

fold的工作原理:在每个分区内,fold 使用初始值 zeroValue 和二元操作函数 op,将该分区内的所有元素进行聚合。在所有分区内的聚合完成后,fold 将各分区的结果与初始值 zeroValue 一起,使用相同的二元操作函数 op 进行全局聚合,得到最终结果。

Java代码:

SparkConf conf = new SparkConf().setMaster("local").setAppName("FoldTest"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> rdd = sc.parallelize(Arrays.asList("a","b","c","d","e","f"), 3); rdd.mapPartitionsWithIndex(new Function2<Integer, Iterator<String>, Iterator<String>>() { @Override public Iterator<String> call(Integer index, Iterator<String> iter) throws Exception { ArrayList<String> list = new ArrayList<>(); while (iter.hasNext()) { String next = iter.next(); list.add("rdd partition index: " + index + " current value: " + next); } return list.iterator(); } },true).foreach(x-> System.out.println(x)); /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello~hello~a~b~hello~c~d~hello~e~f */ String str = rdd.fold("hello", new Function2<String, String, String>() { @Override public String call(String v1, String v2) throws Exception { return v1 + "~" + v2; } }); System.out.println(str); sc.stop();

Scala代码:

val conf = new SparkConf().setMaster("local").setAppName("FoldTest") val sc = new SparkContext(conf) val rdd: RDD[String] = sc.parallelize(List("a", "b", "c", "d", "e", "f"), 3) rdd.mapPartitionsWithIndex((index, iter) => { val list = new ListBuffer[String]() while (iter.hasNext) { list.append(s"rdd partition index: $index ,current value: ${iter.next()}") } list.iterator }).foreach(println) /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * map端聚合: * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello~hello~a~b~hello~c~d~hello~e~f */ val result: String = rdd.fold("hello")((v1, v2) => { v1 + "~" + v2 }) println(result) sc.stop()

二、aggregate使用案例

aggregate用于对RDD中的元素进行聚合操作,最终返回一个结果。与 fold 和 reduce 等算子不同,aggregate 允许用户分别定义分区内和分区间的聚合函数,提供了更大的灵活性。

aggregate函数签名如下:

def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U
  • zeroValue:聚合操作的初始值,类型为 U。
  • seqOp:分区内的聚合函数,用于将分区内的元素与累加器进行合并,类型为 (U, T) => U。
  • combOp:分区间的聚合函数,用于将不同分区的累加器结果进行合并,类型为 (U, U) => U

aggregate工作原理:在每个分区内,使用初始值 zeroValue 和函数 seqOp,将该分区内的所有元素进行聚合。在所有分区内的聚合完成后,使用初始值 zeroValue 和函数 combOp,将各分区的结果进行全局聚合,得到最终结果。

Java代码:

SparkConf conf = new SparkConf().setMaster("local").setAppName("AggregateTest"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> rdd = sc.parallelize(Arrays.asList("a","b","c","d","e","f"), 3); rdd.mapPartitionsWithIndex(new Function2<Integer, Iterator<String>, Iterator<String>>() { @Override public Iterator<String> call(Integer index, Iterator<String> iter) throws Exception { ArrayList<String> list = new ArrayList<>(); while (iter.hasNext()) { String next = iter.next(); list.add("rdd partition index: " + index + " current value: " + next); } return list.iterator(); } },true).foreach(x-> System.out.println(x)); /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * * map端聚合: * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello@hello~a~b@hello~c~d@hello~e~f */ String result = rdd.aggregate("hello", new Function2<String, String, String>() { @Override public String call(String s1, String s2) throws Exception { return s1 + "~" + s2; } }, new Function2<String, String, String>() { @Override public String call(String s1, String s2) throws Exception { return s1 + "@" + s2; } }); System.out.println(result); sc.stop();

Scala代码:

val conf = new SparkConf().setMaster("local").setAppName("FoldTest") val sc = new SparkContext(conf) val rdd: RDD[String] = sc.parallelize(List("a", "b", "c", "d", "e", "f"), 3) rdd.mapPartitionsWithIndex((index, iter) => { val list = new ListBuffer[String]() while (iter.hasNext) { list.append(s"rdd partition index: $index ,current value: ${iter.next()}") } list.iterator }).foreach(println) val result: String = rdd.aggregate("hello")( (v1, v2) => { v1 + "~" + v2 }, (v1, v2) => { v1 + "@" + v2 } ) println(result) sc.stop()

  • 📢博客主页:https://lansonli.blog.csdn.net
  • 📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!
  • 📢本文由 Lansonli 原创,首发于 CSDN博客🙉
  • 📢停下休息的时候不要忘了别人还在奔跑,希望大家抓紧时间学习,全力奔赴更美好的生活✨
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 23:19:40

危化品库区异常停留、违规进入行为的三维空间识别场景

危化品库区异常停留、违规进入行为的三维空间识别场景摘要危化品库区通常划分为限定进入区域、非作业区域、重点防护区域及缓冲隔离区域&#xff0c;对人员进入权限、停留位置及停留时长具有严格规定。传统基于二维视频画面的监控方式&#xff0c;难以准确判断人员是否真正进入…

作者头像 李华
网站建设 2026/4/18 10:49:31

用工程思维构建你的“单身力”:程序员版假期个人增值计划

写在前面&#xff1a;为什么“单身力”是工程师的最佳投资作为一名开发者&#xff0c;我们擅长用算法优化性能、用架构提升系统稳定性&#xff0c;却往往忽略了最重要的“人生系统”也需要迭代升级。这个假期&#xff0c;与其让“待修复BUG”列表越来越长&#xff0c;不如启动一…

作者头像 李华
网站建设 2026/4/18 2:06:29

《机器学习导论》第 7 章-聚类

目录 前言 7.1 引言 聚类的应用场景 核心概念对比&#xff08;可视化&#xff09; 运行效果 7.2 混合密度 核心思想 实战代码&#xff08;混合密度可视化&#xff09; 运行效果 7.3 k 均值聚类 核心步骤 实战代码&#xff08;k 均值聚类 效果对比&#xff09; 关…

作者头像 李华
网站建设 2026/4/18 2:05:10

全球业务(1)新加坡支付费率和支付平台—东方仙盟

一、本地支付核心信息表 表格 支付方式手续费&#xff08;2026&#xff09;接入网址接入要求PayNow/NETS0.65%-1.0% S$0.30https://www.abs.org.sg/paynowhttps://www.nets.com.sg1. 新加坡公司 UEN2. 本地银行账户3. 完成 KYC/AML4. 接入 SGQR会员余额扣&#xff08;持牌 A…

作者头像 李华
网站建设 2026/4/18 2:05:28

一键复制!让你的拜年话“马上”不一样

还在重复“新年快乐&#xff0c;万事如意”吗&#xff1f;马年拜年&#xff0c;就该用上“马”的成语和巧思&#xff0c;让你的祝福瞬间脱颖而出&#xff01;下面为你准备好了一系列“马上”就能用的祝福语&#xff0c;分为直接复制区和个性定制区&#xff0c;分对象、分场合&a…

作者头像 李华
网站建设 2026/4/18 1:05:17

数据仓库建设中的测试方法与质量保障

数据仓库建设中的测试方法与质量保障 关键词&#xff1a;数据仓库、测试方法、质量保障、数据准确性、数据完整性 摘要&#xff1a;本文主要围绕数据仓库建设中的测试方法与质量保障展开。首先介绍了数据仓库建设测试的背景和相关概念&#xff0c;接着详细解释了核心概念&#…

作者头像 李华