技术博客 技术博客
  • JAVA
  • 仓颉
  • 设计模式
  • 人工智能
  • Spring
  • Mybatis
  • Maven
  • Git
  • Kafka
  • RabbitMQ
  • RocketMQ
  • Redis
  • Zookeeper
  • Nginx
  • 数据库套件
  • MySQL
  • Elasticsearch
  • MongoDB
  • Hadoop
  • ClickHouse
  • Hbase
  • Hive
  • Flink
  • Flume
  • SQLite
  • linux
  • Docker
  • Jenkins
  • Kubernetes
  • 工具
  • 前端
  • AI
GitHub (opens new window)
  • JAVA
  • 仓颉
  • 设计模式
  • 人工智能
  • Spring
  • Mybatis
  • Maven
  • Git
  • Kafka
  • RabbitMQ
  • RocketMQ
  • Redis
  • Zookeeper
  • Nginx
  • 数据库套件
  • MySQL
  • Elasticsearch
  • MongoDB
  • Hadoop
  • ClickHouse
  • Hbase
  • Hive
  • Flink
  • Flume
  • SQLite
  • linux
  • Docker
  • Jenkins
  • Kubernetes
  • 工具
  • 前端
  • AI
GitHub (opens new window)
  • JAVA

    • 基础

      • JAVA 锁 及 线程
      • JAVA NIO API
      • JVM 模块介绍
    • 版本

      • JAVA8 新特性总结
        • parallelStream 及CompletableFuture实战
          • parallelStream
          • CompletableFuture
      • JAVA9 新特性总结
      • JAVA 10/11/12/13/14/15/16/17 新特性总结
    • 其他

      • jar 打包成.exe可执行文件
      • java代码混淆之 ProGuard
      • JAVA 性能监控(jvisualvm)及测试(JMeter)
      • Alibaba Arthas
      • jar启动脚本
  • 仓颉

    • 基础

      • 仓颉介绍
  • 设计模式

    • 代理模式
  • 人工智能

    • 线性回归
    • Pytorch
目录

JAVA8 新特性总结

# parallelStream 及 CompletableFuture 实战

# parallelStream

about Stream
什么是流?

Stream 是 java8 中新增加的一个特性,被 java 猿统称为流.

Stream 不是集合元素,它不是数据结构并不保存数据,它是有关算法和计算的,它更像一个高级版本的 Iterator。原始版本的 Iterator,用户只能显式地一个一个遍历元素并对其执行某些操作;高级版本的 Stream,用户只要给出需要对其包含的元素执行什么操作,比如 “过滤掉长度大于 10 的字符串”、“获取每个字符串的首字母” 等,Stream 会隐式地在内部进行遍历,做出相应的数据转换。

Stream 就如同一个迭代器(Iterator),单向,不可往复,数据只能遍历一次,遍历过一次后即用尽了,就好比流水从面前流过,一去不复返。

而和迭代器又不同的是,Stream 可以并行化操作,迭代器只能命令式地、串行化操作。顾名思义,当使用串行方式去遍历时,每个 item 读完后再读下一个 item。而使用并行去遍历时,数据会被分成多个段,其中每一个都在不同的线程中处理,然后将结果一起输出。Stream 的并行操作依赖于 Java7 中引入的 Fork/Join 框架(JSR166y)来拆分任务和加速处理过程。Java 的并行 API 演变历程基本如下:

1.0-1.4 中的 java.lang.Thread
5.0 中的 java.util.concurrent
6.0 中的 Phasers 等
7.0 中的 Fork/Join 框架
8.0 中的 Lambda

Stream 的另外一大特点是,数据源本身可以是无限的。

parallelStream 是什么
parallelStream 其实就是一个并行执行的流。它通过默认的 ForkJoinPool, 可能提高你的多线程任务的速度.

parallelStream 的作用
Stream 具有平行处理能力,处理的过程会分而治之,也就是将一个大任务切分成多个小任务,这表示每个任务都是一个操作,因此像以下的程式片段:

List<Integer> numbers = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9);
numbers.parallelStream()
       .forEach(out::println); 
1
2
3

你得到的展示顺序不一定会是 1、2、3、4、5、6、7、8、9,而可能是任意的顺序,就 forEach () 这个操作來讲,如果平行处理时,希望最后顺序是按照原来 Stream 的数据顺序,那可以调用 forEachOrdered ()。例如:

List<Integer> numbers = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9);
numbers.parallelStream()
       .forEachOrdered(out::println);
1
2
3

注意:如果 forEachOrdered () 中间有其他如 filter () 的中介操作,会试着平行化处理,然后最终 forEachOrdered () 会以原数据顺序处理,因此,使用 forEachOrdered () 这类的有序处理,可能会(或完全失去)失去平行化的一些优势,实际上中介操作亦有可能如此,例如 sorted () 方法。

parallelStream 背后的男人:ForkJoinPool
要想深入的研究 parallelStream 之前,那么我们必须先了解 ForkJoin 框架和 ForkJoinPool. 本文旨在 parallelStream, 但因为两种关系甚密,故在此简单介绍一下 ForkJoinPool, 如有兴趣可以更深入的去了解下 ForkJoin***(当然,如果你想真正的搞透 parallelStream, 那么你依然需要先搞透 ForkJoinPool).*

ForkJoin 框架是从 jdk7 中新特性,它同 ThreadPoolExecutor 一样,也实现了 Executor 和 ExecutorService 接口。它使用了一个无限队列来保存需要执行的任务,而线程的数量则是通过构造函数传入,如果没有向构造函数中传入希望的线程数量,那么当前计算机可用的 CPU 数量会被设置为线程数量作为默认值。

ForkJoinPool 主要用来使用分治法 (Divide-and-Conquer Algorithm) 来解决问题。典型的应用比如快速排序算法。这里的要点在于,ForkJoinPool 需要使用相对少的线程来处理大量的任务。比如要对 1000 万个数据进行排序,那么会将这个任务分割成两个 500 万的排序任务和一个针对这两组 500 万数据的合并任务。以此类推,对于 500 万的数据也会做出同样的分割处理,到最后会设置一个阈值来规定当数据规模到多少时,停止这样的分割处理。比如,当元素的数量小于 10 时,会停止分割,转而使用插入排序对它们进行排序。那么到最后,所有的任务加起来会有大概 2000000 + 个。问题的关键在于,对于一个任务而言,只有当它所有的子任务完成之后,它才能够被执行。

所以当使用 ThreadPoolExecutor 时,使用分治法会存在问题,因为 ThreadPoolExecutor 中的线程无法像任务队列中再添加一个任务并且在等待该任务完成之后再继续执行。而使用 ForkJoinPool 时,就能够让其中的线程创建新的任务,并挂起当前的任务,此时线程就能够从队列中选择子任务执行。

那么使用 ThreadPoolExecutor 或者 ForkJoinPool,会有什么性能的差异呢?
首先,使用 ForkJoinPool 能够使用数量有限的线程来完成非常多的具有父子关系的任务,比如使用 4 个线程来完成超过 200 万个任务。但是,使用 ThreadPoolExecutor 时,是不可能完成的,因为 ThreadPoolExecutor 中的 Thread 无法选择优先执行子任务,需要完成 200 万个具有父子关系的任务时,也需要 200 万个线程,显然这是不可行的。

工作窃取算法
forkjoin 最核心的地方就是利用了现代硬件设备多核,在一个操作时候会有空闲的 cpu, 那么如何利用好这个空闲的 cpu 就成了提高性能的关键,而这里我们要提到的工作窃取(work-stealing)算法就是整个 forkjion 框架的核心理念,工作窃取(work-stealing)算法是指某个线程从其他队列里窃取任务来执行。

那么为什么需要使用工作窃取算法呢?
假如我们需要做一个比较大的任务,我们可以把这个任务分割为若干互不依赖的子任务,为了减少线程间的竞争,于是把这些子任务分别放到不同的队列里,并为每个队列创建一个单独的线程来执行队列里的任务,线程和队列一一对应,比如 A 线程负责处理 A 队列里的任务。但是有的线程会先把自己队列里的任务干完,而其他线程对应的队列里还有任务等待处理。干完活的线程与其等着,不如去帮其他线程干活,于是它就去其他线程的队列里窃取一个任务来执行。而在这时它们会访问同一个队列,所以为了减少窃取任务线程和被窃取任务线程之间的竞争,通常会使用双端队列,被窃取任务线程永远从双端队列的头部拿任务执行,而窃取任务的线程永远从双端队列的尾部拿任务执行。

工作窃取算法的优点是充分利用线程进行并行计算,并减少了线程间的竞争,其缺点是在某些情况下还是存在竞争,比如双端队列里只有一个任务时。并且消耗了更多的系统资源,比如创建多个线程和多个双端队列。

用看 forkjion 的眼光来看 ParallelStreams
上文中已经提到了在 Java 8 引入了自动并行化的概念。它能够让一部分 Java 代码自动地以并行的方式执行,也就是我们使用了 ForkJoinPool 的 ParallelStream。

Java 8 为 ForkJoinPool 添加了一个通用线程池,这个线程池用来处理那些没有被显式提交到任何线程池的任务。它是 ForkJoinPool 类型上的一个静态元素,它拥有的默认线程数量等于运行计算机上的处理器数量。当调用 Arrays 类上添加的新方法时,自动并行化就会发生。比如用来排序一个数组的并行快速排序,用来对一个数组中的元素进行并行遍历。自动并行化也被运用在 Java 8 新添加的 Stream API 中。

比如下面的代码用来遍历列表中的元素并执行需要的操作:

    List<UserInfo> userInfoList =
        DaoContainers.getUserInfoDAO().queryAllByList(new UserInfoModel());
    userInfoList.parallelStream().forEach(RedisUserApi::setUserIdUserInfo);
1
2
3

对于列表中的元素的操作都会以并行的方式执行。forEach 方法会为每个元素的计算操作创建一个任务,该任务会被前文中提到的 ForkJoinPool 中的通用线程池处理。以上的并行计算逻辑当然也可以使用 ThreadPoolExecutor 完成,但是就代码的可读性和代码量而言,使用 ForkJoinPool 明显更胜一筹。

对于 ForkJoinPool 通用线程池的线程数量,通常使用默认值就可以了,即运行时计算机的处理器数量。我这里提供了一个示例的代码让你了解 jvm 所使用的 ForkJoinPool 的线程数量,你可以可以通过设置系统属性:-Djava.util.concurrent.ForkJoinPool.common.parallelism=N (N 为线程数量), 来调整 ForkJoinPool 的线程数量,可以尝试调整成不同的参数来观察每次的输出结果:

import java.util.ArrayList;
import java.util.List;
import java.util.Set;
import java.util.concurrent.CopyOnWriteArraySet;
import java.util.concurrent.CountDownLatch;

/**
 * @description 这是一个用来让你更加熟悉parallelStream的原理的实力
 * @version v1.0
 */
public class App {
    public static void main(String[] args) throws Exception {
        System.out.println("Hello World!");
        // 构造一个10000个元素的集合
        List<Integer> list = new ArrayList<>();
        for (int i = 0; i < 10000; i++) {
            list.add(i);
        }
        // 统计并行执行list的线程
        Set<Thread> threadSet = new CopyOnWriteArraySet<>();
        // 并行执行
        list.parallelStream().forEach(integer -> {
            Thread thread = Thread.currentThread();
            // System.out.println(thread);
            // 统计并行执行list的线程
            threadSet.add(thread);
        });
        System.out.println("threadSet一共有" + threadSet.size() + "个线程");
        System.out.println("系统一个有"+Runtime.getRuntime().availableProcessors()+"个cpu");
        List<Integer> list1 = new ArrayList<>();
        List<Integer> list2 = new ArrayList<>();
        for (int i = 0; i < 100000; i++) {
            list1.add(i);
            list2.add(i);
        }
        Set<Thread> threadSetTwo = new CopyOnWriteArraySet<>();
        CountDownLatch countDownLatch = new CountDownLatch(2);
        Thread threadA = new Thread(() -> {
            list1.parallelStream().forEach(integer -> {
                Thread thread = Thread.currentThread();
                // System.out.println("list1" + thread);
                threadSetTwo.add(thread);
            });
            countDownLatch.countDown();
        });
        Thread threadB = new Thread(() -> {
            list2.parallelStream().forEach(integer -> {
                Thread thread = Thread.currentThread();
                // System.out.println("list2" + thread);
                threadSetTwo.add(thread);
            });
            countDownLatch.countDown();
        });

        threadA.start();
        threadB.start();
        countDownLatch.await();
        System.out.print("threadSetTwo一共有" + threadSetTwo.size() + "个线程");

        System.out.println("---------------------------");
        System.out.println(threadSet);
        System.out.println(threadSetTwo);
        System.out.println("---------------------------");
        threadSetTwo.addAll(threadSet);
        System.out.println(threadSetTwo);
        System.out.println("threadSetTwo一共有" + threadSetTwo.size() + "个线程");
        System.out.println("系统一个有"+Runtime.getRuntime().availableProcessors()+"个cpu");
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69

出现这种现象的原因是,forEach 方法用了一些小把戏。它会将执行 forEach 本身的线程也作为线程池中的一个工作线程。因此,即使将 ForkJoinPool 的通用线程池的线程数量设置为 1,实际上也会有 2 个工作线程。因此在使用 forEach 的时候,线程数为 1 的 ForkJoinPool 通用线程池和线程数为 2 的 ThreadPoolExecutor 是等价的。

所以当 ForkJoinPool 通用线程池实际需要 4 个工作线程时,可以将它设置成 3,那么在运行时可用的工作线程就是 4 了。
小结:

  1. 当需要处理递归分治算法时,考虑使用 ForkJoinPool。
  2. 仔细设置不再进行任务划分的阈值,这个阈值对性能有影响。
  3. Java 8 中的一些特性会使用到 ForkJoinPool 中的通用线程池。在某些场合下,需要调整该线程池的默认的线程数量。

ParallelStreams 的陷阱
上文中我们已经看到了 ParallelStream 他强大无比的特性,但这里我们就讲告诉你 ParallelStreams 不是万金油,而是一把双刃剑,如果错误的使用反倒可能伤人伤己.

以下是一个我们项目里使用 parallel streams 的很常见的情况。在这个例子中,我们想同时调用不同地址的 api 中并且获得第一个返回的结果。

    public static String query(String q, List<String> engines) {      Optional<String> result = engines.stream().parallel().map((base) -> {
        String url = base + q;
        return WS.url(url).get();
      }).findAny();
      return result.get();
    }
1
2
3
4
5
6

可能有很多朋友在 jdk7 用 future 配合 countDownLatch 自己实现的这个功能,但是 jdk8 的朋友基本都会用上面的实现方式,那么自信深究一下究竟自己用 future 实现的这个功能和利用 jdk8 的 parallelStream 来实现这个功能有什么不同点呢?坑又在哪里呢?

让我们细思思考一下整个功能究竟是如何运转的。首先我们的集合元素 engines 由 ParallelStreams 并行的去进行 map 操作 (ParallelStreams 使用 JVM 默认的 forkJoin 框架的线程池由当前线程去执行并行操作).

然而,这里需要注意的一地方是我们在调用第三方的 api 请求是一个响应略慢而且会阻塞操作的一个过程。所以在某时刻所有线程都会调用 get () 方法并且在那里等待结果返回.

再回过头仔细思考一下这个功能的实现过程是我们一开始想要的吗?我们是在同一时间等待所有的结果,而不是遍历这个列表按顺序等待每个回答。然而,由于 ForkJoinPool workders 的存在,这样平行的等待相对于使用主线程的等待会产生的一种副作用.

现在 ForkJoin pool (关于 forkjion 的更多实现你可以去搜索引擎中去看一下他的具体实现方式) 的实现是:它并不会因为产生了新的 workers 而抵消掉阻塞的 workers。那么在某个时间所有 ForkJoinPool.common () 的线程都会被用光。也就是说,下一次你调用这个查询方法,就可能会在一个时间与其他的 parallel stream 同时运行,而导致第二个任务的性能大大受损。或者说,例如你在这个功能里是用来快速返回调用的第三方 api 的,而在其他的功能里是用于一些简单的数据并行计算的,但是假如你先调用了这个功能,同一时间之后调用计算的函数,那么这里 forkjionPool 的实现会让你计算的函数大打折扣.

不过也不要急着去吐槽 ForkJoinPool 的实现,在不同的情况下你可以给它一个 ManagedBlocker 实例并且确保它知道在一个阻塞调用中应该什么时候去抵消掉卡住的 workers. 现在有意思的一点是,在一个 parallel stream 处理中并不一定是阻塞调用会拖延程序的性能。任何被用于映射在一个集合上的长时间运行的函数都会产生同样的问题.

正如我们上面那个列子的情况分析得知,lambda 的执行并不是瞬间完成的,所有使用 parallel streams 的程序都有可能成为阻塞程序的源头,并且在执行过程中程序中的其他部分将无法访问这些 workers, 这意味着任何依赖 parallel streams 的程序在什么别的东西占用着 common ForkJoinPool 时将会变得不可预知并且暗藏危机.

怎么正确使用 parallelStream
如果你正在写一个其他地方都是单线程的程序并且准确地知道什么时候你应该要使用 parallel streams,这样的话你可能会觉得这个问题有一点肤浅。然而,我们很多人是在处理 web 应用、各种不同的框架以及重量级应用服务。一个服务器是怎样被设计成一个可以支持多种独立应用的主机的?谁知道呢,给你一个可以并行的却不能控制输入的 parallel stream.

很抱歉,请原谅我用的标注 [怎么正确使用 parallelStream], 因为目前为止我也没有发现一个好的方式来让我真正的正确使用 parallelStream. 下面的网上写的两种方式:

一种方式是限制 ForkJoinPool 提供的并行数。可以通过使用 - Djava.util.concurrent.ForkJoinPool.common.parallelism=1 来限制线程池的大小为 1。不再从并行化中得到好处可以杜绝错误的使用它 (其实这个方式还是有点搞笑的,既然这样搞那我还不如不去使用并行流)。

另一种方式就是,一个被称为工作区的可以让 ForkJoinPool 平行放置的 parallelStream () 实现。不幸的是现在的 JDK 还没有实现。

Parallel streams 是无法预测的,而且想要正确地使用它有些棘手。几乎任何 parallel streams 的使用都会影响程序中无关部分的性能,而且是一种无法预测的方式。。但是在调用 stream.parallel () 或者 parallelStream () 时候在我的代码里之前我仍然会重新审视一遍他给我的程序究竟会带来什么问题,他能有多大的提升,是否有使用他的意义.

stream or parallelStream?
上面我们也看到了 parallelStream 所带来的隐患和好处,那么,在从 stream 和 parallelStream 方法中进行选择时,我们可以考虑以下几个问题:

  1. 是否需要并行?
  2. 任务之间是否是独立的?是否会引起任何竞态条件?
  3. 结果是否取决于任务的调用顺序?

对于问题 1,在回答这个问题之前,你需要弄清楚你要解决的问题是什么,数据量有多大,计算的特点是什么?并不是所有的问题都适合使用并发程序来求解,比如当数据量不大时,顺序执行往往比并行执行更快。毕竟,准备线程池和其它相关资源也是需要时间的。但是,当任务涉及到 I/O 操作并且任务之间不互相依赖时,那么并行化就是一个不错的选择。通常而言,将这类程序并行化之后,执行速度会提升好几个等级。

对于问题 2,如果任务之间是独立的,并且代码中不涉及到对同一个对象的某个状态或者某个变量的更新操作,那么就表明代码是可以被并行化的。

对于问题 3,由于在并行环境中任务的执行顺序是不确定的,因此对于依赖于顺序的任务而言,并行化也许不能给出正确的结果。

# CompletableFuture

CompletableFuture 是一个异步编程 api,用的是 forkjoin 的线程实现,可以帮我们达到使用多核处理任务的效果。CompletableFuture 提供了 supplyAsync 和 runAsync 两个方法,supplyAsync 异步完成后返回一个具体的数据,runAsync 直接就是异步执行,执行完便结束了。我们来看看简单的用法:

  • supplyAsync ().thenCompose () 方法允许你对两个异步操作进行流水线,第一个操作完成时,将其结果作为参数传递给第二个操作
  • supplyAsync ().thenCombine () 你需要将两个完全不相干的 CompletableFuture 对象的结果整合起来,而且你也不希望等到第一个任务完全结束才开始第二项任务
  • supplyAsync ().thenAccept () 它接收 CompletableFuture 执行完毕后的返回值做参数
  • supplyAsync ().thenApply () 该方法会等 CompletableFuture 执行完第一个结果 就调用其执行.
上次更新: 6/11/2025, 4:10:30 PM
JVM 模块介绍
JAVA9 新特性总结

← JVM 模块介绍 JAVA9 新特性总结→

Theme by Vdoing | Copyright © 2023-2025
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式