news 2026/4/23 9:17:02

大数据Spark(八十):Action行动算子fold和aggregate使用案例

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大数据Spark(八十):Action行动算子fold和aggregate使用案例

文章目录

Action行动算子fold和aggregate使用案例

一、fold使用案例

二、aggregate使用案例


Action行动算子fold和aggregate使用案例

一、fold使用案例

fold用于对RDD中的元素进行聚合操作,最终返回一个结果。类似reduce算子,但与reduce不同的是其可以对每个分区中的数据提供一个初始值,让分区中的数据与该初始值进行聚合,最终该初始值还会与各个分区的结果再次聚合。

fold的函数签名如下:

def fold(zeroValue: T)(op: (T, T) => T): T
  • zeroValue:聚合操作的初始值,类型为 T。
  • op:用于合并元素的二元操作函数。

fold的工作原理:在每个分区内,fold 使用初始值 zeroValue 和二元操作函数 op,将该分区内的所有元素进行聚合。在所有分区内的聚合完成后,fold 将各分区的结果与初始值 zeroValue 一起,使用相同的二元操作函数 op 进行全局聚合,得到最终结果。

Java代码:

SparkConf conf = new SparkConf().setMaster("local").setAppName("FoldTest"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> rdd = sc.parallelize(Arrays.asList("a","b","c","d","e","f"), 3); rdd.mapPartitionsWithIndex(new Function2<Integer, Iterator<String>, Iterator<String>>() { @Override public Iterator<String> call(Integer index, Iterator<String> iter) throws Exception { ArrayList<String> list = new ArrayList<>(); while (iter.hasNext()) { String next = iter.next(); list.add("rdd partition index: " + index + " current value: " + next); } return list.iterator(); } },true).foreach(x-> System.out.println(x)); /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello~hello~a~b~hello~c~d~hello~e~f */ String str = rdd.fold("hello", new Function2<String, String, String>() { @Override public String call(String v1, String v2) throws Exception { return v1 + "~" + v2; } }); System.out.println(str); sc.stop();

Scala代码:

val conf = new SparkConf().setMaster("local").setAppName("FoldTest") val sc = new SparkContext(conf) val rdd: RDD[String] = sc.parallelize(List("a", "b", "c", "d", "e", "f"), 3) rdd.mapPartitionsWithIndex((index, iter) => { val list = new ListBuffer[String]() while (iter.hasNext) { list.append(s"rdd partition index: $index ,current value: ${iter.next()}") } list.iterator }).foreach(println) /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * map端聚合: * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello~hello~a~b~hello~c~d~hello~e~f */ val result: String = rdd.fold("hello")((v1, v2) => { v1 + "~" + v2 }) println(result) sc.stop()

二、aggregate使用案例

aggregate用于对RDD中的元素进行聚合操作,最终返回一个结果。与 fold 和 reduce 等算子不同,aggregate 允许用户分别定义分区内和分区间的聚合函数,提供了更大的灵活性。

aggregate函数签名如下:

def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U
  • zeroValue:聚合操作的初始值,类型为 U。
  • seqOp:分区内的聚合函数,用于将分区内的元素与累加器进行合并,类型为 (U, T) => U。
  • combOp:分区间的聚合函数,用于将不同分区的累加器结果进行合并,类型为 (U, U) => U

aggregate工作原理:在每个分区内,使用初始值 zeroValue 和函数 seqOp,将该分区内的所有元素进行聚合。在所有分区内的聚合完成后,使用初始值 zeroValue 和函数 combOp,将各分区的结果进行全局聚合,得到最终结果。

Java代码:

SparkConf conf = new SparkConf().setMaster("local").setAppName("AggregateTest"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> rdd = sc.parallelize(Arrays.asList("a","b","c","d","e","f"), 3); rdd.mapPartitionsWithIndex(new Function2<Integer, Iterator<String>, Iterator<String>>() { @Override public Iterator<String> call(Integer index, Iterator<String> iter) throws Exception { ArrayList<String> list = new ArrayList<>(); while (iter.hasNext()) { String next = iter.next(); list.add("rdd partition index: " + index + " current value: " + next); } return list.iterator(); } },true).foreach(x-> System.out.println(x)); /** * 0号分区:a b * 1号分区:c d * 2号分区:e f * * map端聚合: * 0号分区:hello~a~b * 1号分区:hello~c~d * 2号分区:hello~e~f * * 最终结果:hello@hello~a~b@hello~c~d@hello~e~f */ String result = rdd.aggregate("hello", new Function2<String, String, String>() { @Override public String call(String s1, String s2) throws Exception { return s1 + "~" + s2; } }, new Function2<String, String, String>() { @Override public String call(String s1, String s2) throws Exception { return s1 + "@" + s2; } }); System.out.println(result); sc.stop();

Scala代码:

val conf = new SparkConf().setMaster("local").setAppName("FoldTest") val sc = new SparkContext(conf) val rdd: RDD[String] = sc.parallelize(List("a", "b", "c", "d", "e", "f"), 3) rdd.mapPartitionsWithIndex((index, iter) => { val list = new ListBuffer[String]() while (iter.hasNext) { list.append(s"rdd partition index: $index ,current value: ${iter.next()}") } list.iterator }).foreach(println) val result: String = rdd.aggregate("hello")( (v1, v2) => { v1 + "~" + v2 }, (v1, v2) => { v1 + "@" + v2 } ) println(result) sc.stop()

  • 📢博客主页:https://lansonli.blog.csdn.net
  • 📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!
  • 📢本文由 Lansonli 原创,首发于 CSDN博客🙉
  • 📢停下休息的时候不要忘了别人还在奔跑,希望大家抓紧时间学习,全力奔赴更美好的生活✨
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 18:23:32

详解 Spring Boot、Flask、Nginx、Redis、MySQL 的关系与协作

前言 在Web开发领域&#xff0c;Spring Boot、Flask、Nginx、Redis、MySQL这些名词经常出现&#xff0c;但很多初学者对它们的定位和关系感到困惑。本文将用通俗易懂的方式&#xff0c;彻底讲清楚这些技术组件分别是做什么的&#xff0c;以及它们如何协作构建一个完整的Web应用…

作者头像 李华
网站建设 2026/4/12 0:08:20

大数据领域数据可视化的技术突破与挑战

大数据领域数据可视化的技术突破与挑战 关键词&#xff1a;大数据、数据可视化、技术突破、挑战、可视化技术 摘要&#xff1a;本文聚焦于大数据领域的数据可视化&#xff0c;深入探讨了其技术突破和面临的挑战。首先介绍了大数据和数据可视化的背景知识&#xff0c;明确了文章…

作者头像 李华
网站建设 2026/3/25 20:38:25

乔尔格林布拉特的价值投资回测

乔尔格林布拉特的价值投资回测 关键词:价值投资、神奇公式、回测、股票筛选、投资组合、量化投资、财务指标 摘要:本文深入探讨乔尔格林布拉特(Joel Greenblatt)提出的"神奇公式"价值投资策略及其回测方法。文章将从理论基础出发,详细解析该策略的核心财务指标(资…

作者头像 李华
网站建设 2026/3/24 5:34:21

解码MATLAB v7文件:R语言中的技巧与实例

在数据科学和统计分析领域,MATLAB文件是一个非常常见的文件格式,特别是对于工程师和科学家来说。MATLAB v7版本的文件虽然已经不算新,但仍然广泛应用于许多项目中。对于R语言用户来说,读取MATLAB文件可能并不是一件简单的事情。本文将详细探讨如何在R中读取MATLAB v7文件,…

作者头像 李华
网站建设 2026/4/23 6:33:10

跟对公司,三年顶十年

某芯片公司上市&#xff0c;很多老员工直接财务自由。朋友圈里一片柠檬味&#xff0c;都在感慨"命好"。但这事儿真的只是运气吗&#xff1f;上市确实能让员工拿到超额回报&#xff0c;但这种回报本质上是对"风险定价"的兑现。早期加入一家公司&#xff0c;…

作者头像 李华
网站建设 2026/4/23 6:33:03

Git使用[远程仓库远端的head比本地和提交的head旧,其他人拉不到最新代码]

远程仓库远端的head比本地和提交的head旧,其他人拉不到最新代码 今天遇到一个超级奇葩的问题,我明明已经提交了代码,而且在浏览器看到的最新代码已经是我提交的了,但是其他同事拉取的时候总是上一个版本的,这让我一头雾水:克隆这个残酷拉取也是上一个版本的代码:这我就非常懵逼…

作者头像 李华