0
点赞
收藏
分享

微信扫一扫

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验

个人创作公约:本人声明创作的所有文章皆为自己原创,如果有参考任何文章的地方,会标注出来,如果有疏漏,欢迎大家批判。如果大家发现网上有抄袭本文章的,欢迎举报,并且积极向这个 ​​github 仓库​​ 提交 issue,谢谢支持~

本篇文章参考了大量文章,文档以及论文,但是这块东西真的很繁杂,我的水平有限,可能理解的也不到位,如有异议欢迎留言提出。本系列会不断更新,结合大家的问题以及这里的错误和疏漏,欢迎大家留言

如果你喜欢单篇版,请访问:​​全网最硬核 Java 新内存模型解析与实验单篇版(不断更新QA中)​​

如果你喜欢这个拆分的版本,这里是目录:

- ​​全网最硬核 Java 新内存模型解析与实验 - 1. 什么是 Java 内存模型​​

- ​​全网最硬核 Java 新内存模型解析与实验 - 2. 原子访问与字分裂​​

- ​​全网最硬核 Java 新内存模型解析与实验 - 3. 硬核理解内存屏障(CPU+编译器)​​

- ​​全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验​​

- ​​全网最硬核 Java 新内存模型解析与实验 - 5. JVM 底层内存屏障源码分析​​

JMM 相关文档:

- ​​Java Language Specification Chapter 17​​

- ​​The JSR-133 Cookbook for Compiler Writers - Doug Lea's​​

- ​​Using JDK 9 Memory Order Modes - Doug Lea's​​

内存屏障,CPU 与内存模型相关:

- ​​Weak vs. Strong Memory Models​​

- ​​Memory Barriers: a Hardware View for Software Hackers​​

- ​​A Detailed Analysis of Contemporary ARM and x86 Architectures​​

- ​​Memory Model = Instruction Reordering + Store Atomicity​​

- ​​Out-of-Order Execution​​

x86 CPU 相关资料:

- ​​x86 wiki​​

- ​​Intel® 64 and IA-32 Architectures Software Developer Manuals​​

- ​​Formal Specification of the x86 Instruction Set Architecture​​

ARM CPU 相关资料:

- ​​ARM wiki​​

- ​​aarch64 Cortex-A710 Specification​​

各种一致性的理解:

- ​​Coherence and Consistency​​

Aleskey 大神的 JMM 讲解:

- ​​Aleksey Shipilëv - 不要误解Java内存模型(上)​​

- ​​Aleksey Shipilëv - 不要误解Java内存模型(下)​​

相信很多 Java 开发,都使用了 Java 的各种并发同步机制,例如 volatile,synchronized 以及 Lock 等等。也有很多人读过 JSR 第十七章 Threads and Locks(地址:​​https://docs.oracle.com/javase/specs/jls/se17/html/jls-17.html​​),其中包括同步、Wait/Notify、Sleep & Yield 以及内存模型等等做了很多规范讲解。但是也相信大多数人和我一样,第一次读的时候,感觉就是在看热闹,看完了只是知道他是这么规定的,但是为啥要这么规定,不这么规定会怎么样,并没有很清晰的认识。同时,结合 Hotspot 的实现,以及针对 Hotspot 的源码的解读,我们甚至还会发现,由于 javac 的静态代码编译优化以及 C1、C2 的 JIT 编译优化,导致最后代码的表现与我们的从规范上理解出代码可能的表现是不太一致的。并且,这种不一致,导致我们在学习 Java 内存模型(JMM,Java Memory Model),理解 Java 内存模型设计的时候,如果想通过实际的代码去试,结果是与自己本来可能正确的理解被带偏了,导致误解。

我本人也是不断地尝试理解 Java 内存模型,重读 JLS 以及各路大神的分析。这个系列,会梳理我个人在阅读这些规范以及分析还有通过 jcstress 做的一些实验而得出的一些理解,希望对于大家对 Java 9 之后的 Java 内存模型以及 API 抽象的理解有所帮助。但是,还是强调一点,内存模型的设计,出发点是让大家可以不用关心底层而抽象出来的一些设计,涉及的东西很多,我的水平有限,可能理解的也不到位,我会尽量把每一个论点的论据以及参考都摆出来,请大家不要完全相信这里的所有观点,如果有任何异议欢迎带着具体的实例反驳并留言

6. 为什么最好不要自己写代码验证 JMM 的一些结论

通过前面的一系列分析我们知道,程序乱序的问题错综复杂,假设一段代码,没有任何限制所有可能的输出结果是如下图所示这个全集:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java

在 Java 内存模型的限制下,可能的结果被限制到了所有乱序结果中的一个子集:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_02

在 Java 内存模型的限制下,在不同的 CPU 架构上,CPU 乱序情况不同,有的场景有的 CPU 会乱序,有的则不会,但是都在 JMM 的范围内所以是合理的,这样所有可能的结果集又被限制到 JMM 的一个个不同子集:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_03

在 Java 内存模型的限制下,在不同的操作系统的编译器编译出来的 JVM 的代码执行顺序不同,底层系统调用定义不同,在不同操作系统执行的 Java 代码又有可能会有些微小的差异,但是由于都在 JMM 的限制范围内,所以也是合理的:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_04

最后呢,在不同的执行方式以及 JIT 编译下,底层执行的代码还是有差异的,进一步导致了结果集的分化:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_05

所以,如果你自己编写代码在自己的唯一一台电脑唯一一种操作系统上面去试,那么你所能试出来的结果集只是 JMM 的一个子集,很可能有些乱序结果你是看不到的。并且,有些乱序执行次数少或者没走到 JIT 优化,还看不到,所以,真的不建议你自己写代码去实验。

那么应该怎么做呢?使用较为官方的用来测试并发可见性的框架 - jcstress,这个框架虽然不能模拟不同的 CPU 架构和不同操作系统,但是能让你排除不同执行(解释执行,C1执行,C2执行)以及测试压力不足次数少的原因,后面的所有讲解都会附上对应的 jcstress 代码实例供大家使用。

7. 层层递进可见性与 Java 9+ 内存模型的对应 API

这里主要参考了 Aleksey 大神的思路,去总结出不同层次,层层递进的 Java 中的一些内存可见性限制性质以及对应的 API。Java 9+ 中,将原来的普通变量(非 volatile,final 变量)的普通访问,定义为了 Plain。普通访问,没有对这个访问的地址做任何屏障(不同 GC 的那些屏障,比如分代 GC 需要的指针屏障,不是这里要考虑的,那些屏障只是 GC 层面的,对于这里的可见性没啥影响),会有前面提到的各种乱序。那么 Java 9+ 内存模型中究竟提出了那些限制以及对应这些限制的 API 是啥,我们接下层层递进讲述。

7.1. Coherence(相干性,连贯性)与 Opaque

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_06

这里的标题我不太清楚究竟应该翻译成什么,因为我看网上很多地方把 CPU Cache Coherence Protocol 翻译成了 CPU 缓存一致性协议,即 Coherence 在那种语境下代表一致性,但是我们这里的 Coherence 如果翻译成一致性就不太合适。所以,之后的一些名词我也直接沿用 Doug Lea 大神的以及 Aleksey 大神的定义。
那么这里什么是 coherence 呢?举一个简单的例子:假设某个对象字段 int x 初始为 0,一个线程执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_07

另一个线程执行(r1, r2 为本地变量):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_08

那么在 Java 内存模型下,可能的结果是包括:

  1. ​r1 = 1, r2 = 1​
  2. ​r1 = 0, r2 = 1​
  3. ​r1 = 1, r2 = 0​
  4. ​r1 = 0, r2 = 0​

其中第三个结果很有意思,从程序上理解即我们先看到了 x = 1,之后又看到了 x 变成了 0.当然,通过前面的分析,我们知道实际上是因为编译器乱序。如果我们不想看到这个第三种结果,我们所需要的特性即 coherence。
coherence 的定义,我引用下原文:

The writes to the single memory location appear to be in a total order consistent with program order.

即对单个内存位置的写看上去是按照与程序顺序一致的总顺序进行的。看上去有点难以理解,结合上面的例子,可以这样理解:在全局,x 由 0 变成了 1,那么每个线程中看到的 x 只能从 0 变成 1,而不会可能看到从 1 变成 0.
正如前面所说,Java 内存模型定义中的 Plain 读写,是不能保证 coherence 的。但是如果大家跑一下针对上面的测试代码,会发现跑不出来第三种结果。这是因为 Hotspot 虚拟机中的语义分析会认为这两个对于 x 的读取(load)是互相依赖的,进而限制了这种乱序:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_09

这就是我在前面一章中提到的,为什么最好不要自己写代码验证 JMM 的一些结论。虽然在 Java 内存模型的限制中,是允许第三种结果 1, 0 的,但是这里通过这个例子是试不出来的。

我们这里通过一个别扭的例子来骗过 Java 编译器造成这种乱序

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_10

我们不用太深究其原理,直接看结果:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_11

发现出现了乱序的结果,并且,如果你自己跑一下这个例子,会发现这个乱序是发生在执行 JIT C2 编译后的 actor2 方法才会出现。
那么如何避免这种乱序呢?使用 volatile 肯定是可以避免的,但是这里我们并不用劳烦 volatile 这种重操作出马,就用 Opaque 访问即可Opaque 其实就是禁止 Java 编译器优化,但是没有涉及任何的内存屏障,和 C++ 中的 volatile 非常类似。测试下:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_12

运行下,可以发现,这个就没有乱序了(命令行如果没有 ACCEPTABLE_INTERESTING,FORBIDDEN,UNKNOWN 的 结果就不会输出了,只能最后看输出的 html):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_13

7.2. Causality(因果性)与 Acquire/Release

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_14在 Coherence 的基础上,我们一般在某些场景还会需要 Causality

一般到这里,大家会接触到两个很常见的词,即 happens-before 以及 synchronized-with order,我们这里先不从这两个比较晦涩的概念开始介绍(具体概念介绍不会在这一章节解释),而是通过一个例子,即假设某个对象字段 int x 初始为 0,int y 也初始为 0,这两个字段不在同一个缓存行中后面的 jcstress 框架会自动帮我们进行缓存行填充),一个线程执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_15

另一个线程执行(r1, r2 为本地变量):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_16

这个例子与我们前面的 CPU 缓存那里的乱序分析举得例子很像,在 Java 内存模型中,可能的结果有:

  1. ​r1 = 1, r2 = 1​
  2. ​r1 = 0, r2 = 1​
  3. ​r1 = 1, r2 = 0​
  4. ​r1 = 0, r2 = 0​

同样的,第三个结果也是很有趣的,第二个线程先看到 y 更新,但是没有看到 x 的更新。这个在前面的 CPU 缓存乱序那里我们详细分析,在前面的分析中,我们需要像这样加内存屏障才能避免第三种情况的出现,即:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_17

以及

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_18

简单回顾下,线程 1 执行 x = 1 之后,在 y = 1 之前执行了写屏障,保证 store buffer 的更新都更新到了缓存,y = 1 之前的更新都保证了不会因为存在 store buffer 中导致不可见。线程 2 执行 int r1 = y 之后执行了读屏障,保证 invalidate queue 中的需要失效的数据全部被失效,保证当前缓存中不会有脏数据。这样,如果线程 2 看到了 y 的更新,就一定能看到 x 的更新。
我们进一步更形象的描述一下:我们把写屏障以及后面的一个 Store(即 y = 1)理解为将前面的更新打包,然后将这个包在这点发射出去,读屏障与前面一个 Load(即 int r1 = y)理解成一个接收点,如果接收到发出的包,就在这里将包打开并读取进来。所以,如下图所示:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_19

在发射点,会将发射点之前(包括发射点本身的信息)的所有结果打包,如果在执行接收点的代码的时候接收到了这个包,那么在这个接收点之后的所有指令就能看到包里面的所有内容,即发射点之前以及发射点的内容。Causality(因果性),有的地方也叫做 Casual Consistency(因果一致性),它在不同的语境下有不同的含义,我们这里仅特指:可以定义一系列写入操作,如果读取看到了最后一个写入,那么这个读取之后的所有读取操作,都能看到这个写入以及之前的所有写入操作。这是一种 Partial Order(半顺序),而不是 Total Order(全顺序),关于这个定义将在后面的章节详细说明。
在 Java 中,Plain 访问与 Opaque 访问都不能保证 Causality,因为 Plain 没有任何的内存屏障,Opaque 只是有编译器屏障,我们可以通过如下代码测试出来:
首先是 Plain:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_20

结果是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_21

然后是 Opaque:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_22

这里我们需要注意:由于前面我们看到, x86 CPU 是天然保证一些指令不乱序的,稍后我们就能看到是哪些不乱序保证了这里的 Causality,所以 x86 的 CPU 都看不到乱序,Opaque 访问就能看到因果一致性的结果,如下图所示(AMD64 是一种 x86 的实现):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_23

但是,如果我们换成其他稍微弱一致一些的 CPU,就能看到 Opaque 访问保证不了因果一致性,下面的结果是我在 aarch64 (是一种 arm 的实现):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_24并且,还有一个比较有意思的点,即乱序都是 C2 编译执行的时候发生的
那么,我们如何保证 Causality 呢?同样的,我们同样不必劳烦 volatile 这么重的操作,采用 release/acquire 模式即可。release/acquire 可以保证 Coherence + Causality。release/acquire 必须成对出现(一个 acquire 对应一个 release),可以将 release 视为前面提到的发射点,acquire 视为前面提到的接收点,那么我们就可以像下图这样实现代码:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_25全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_26

然后,继续在刚刚的 aarch64 的机器上面执行,结果是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_27

可以看出,Causuality 由于使用了 Release/Acquire 保证了 Causality。注意,对于发射点和接收点的选取一定要选好,例如这里我们如果换个位置,那么就不对了:
示例一:发射点只会打包之前的所有更新,对于 x = 1 的更新在发射点之后,相当于没有打包进去,所以还是会出现 1,0 的结果。

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_28

示例二:在接收点会解包,从而让后面的读取看到包里面的结果,对于 x 的读取在接收点之前,相当于没有看到包里面的更新,所以还是会出现 1,0 的结果。

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_29

由此,我们类比下 Doug Lea 的 Java 内存屏障设计,来看看这里究竟用了哪些 Java 中设计的内存屏障。在 Doug Lea 的很早也是很经典的一篇文章中,介绍了 Java 内存模型以及其中的内存屏障设计,提出了四种屏障:

1.LoadLoad

如果有两个完全不相干的互不依赖(即可以乱序执行的)的读取(Load),可以通过 LoadLoad 屏障避免它们的乱序执行(即在 Load(x) 执行之前不会执行 Load(y)):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_302.LoadStore

如果有一个读取(Load)以及一个完全不相干的(即可以乱序执行的)的写入(Store),可以通过 LoadStore 屏障避免它们的乱序执行(即在 Load(x) 执行之前不会执行 Store(y)):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_313.StoreStore

如果有两个完全不相干的互不依赖(即可以乱序执行的)的写入(Store),可以通过 StoreStore 屏障避免它们的乱序执行(即在 Store(x) 执行之前不会执行 Store(y)):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_324.StoreLoad

如果有一个写入(Store)以及一个完全不相干的(即可以乱序执行的)的读取(Load),可以通过 LoadStore 屏障避免它们的乱序执行(即在 Store(x) 执行之前不会执行 Load(y)):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_33

那么如何通过这些内存屏障实现的 Release/Acquire 呢?我们可以通过前面我们的抽象推出来,首先是发射点。发射点首先是一个 Store,并且保证打包前面的所有,那么不论是 Load 还是 Store 都要打包,都不能跑到后面去,所以需要在 Release 的前面加上 LoadStore,StoreStore 两种内存屏障来实现。同理,接收点是一个 Load,并且保证后面的都能看到包里面的值,那么无论 Load 还是 Store 都不能跑到前面去,所以需要在 Acquire 的后面加上 LoadLoad,LoadStore 两种内存屏障来实现

但是呢我们可以在下一章中看到,其实目前来看这四个内存屏障的设计有些过时了(由于 CPU 的发展以及 C++ 语言的发展) ,JVM 内部用的更多的是 acquire,release,fence 这三个。这里的 acquire 以及 release 其实就是我们这里提到的 Release/Acquire。这三个与传统的四屏障的设计的关系是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_34

我们这里知道了 Release/Acquire 的内存屏障,x86 为何没有设置这个内存屏障就没有这种乱序呢?参考前面的 CPU 乱序图:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_35

通过这里我们知道,x86 对于 Store 与 Store,Load 与 Load,Load 与 Store 都不会乱序,所以天然就能保证 Casuality

7.3. Consensus(共识性)与 Volatile

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_36

最后终于来到我们所熟悉的 Volatile 了,Volatile 其实就是在 Release/Acquire 的基础上,进一步保证了 Consensus;Consensus 即所有线程看到的内存更新顺序是一致的,即所有线程看到的内存顺序全局一致,举个例子:假设某个对象字段 int x 初始为 0,int y 也初始为 0,这两个字段不在同一个缓存行中后面的 jcstress 框架会自动帮我们进行缓存行填充),一个线程执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_37

另一个执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_38

在 Java 内存模型下,同样可能有4种结果:

  1. ​r1 = 1, r2 = 1​
  2. ​r1 = 0, r2 = 1​
  3. ​r1 = 1, r2 = 0​
  4. ​r1 = 0, r2 = 0​

第四个结果比较有意思,他是不符合 Consensus 的,因为两个线程看到的更新顺序不一样(第一个线程看到 0 代表他认为 x 的更新是在 y 的更新之前执行的,第二个线程看到 0 代表他认为 y 的更新是在 x 的更新之前执行的)。如果没有乱序,那么肯定不会看到 x, y 都是 0,因为线程 1 和线程 2 都是先更新后读取的。但是也正如前面所有的讲述一样,各种乱序造成了我们可以看大第三个这样的结果。那么 Release/Acquire 能否保证不会出现这样的结果呢?我们来简单分析下,如果对于 x,y 的访问都是 Release/Acquire 模式的,那么线程 1 实际执行的就是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_39

这里我们就可以看出来,x = 1 与 int r1 = y 之间没有任何内存屏障,所以实际可能执行的是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_40

同理,线程 2 可能执行的是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_41

或者:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_42

这样,就会造成我们可能看到第四种结果。我们通过代码测试下:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_43

测试结果是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_44

如果要保证 Consensus,我们只要保证线程 1 的代码与线程 2 的代码不乱序即可,即在原本的内存屏障的基础上,添加 StoreLoad 内存屏障,即线程 1 执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_45

线程 2 执行:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_46

这样就能保证不会乱序,这其实就是 volatile 访问了。Volatile 访问即在 Release/Acquire 的基础上增加 StoreLoad 屏障,我们来测试下:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_47

结果是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_48

那么引出另一个问题,这个 StoreLoad 屏障是 Volatile Store 之后添加,还是 Volatile Load 之前添加呢?我们来做下这个实验:
首先保留 Volatile Store,将 Volatile Load 改成 Plain Load,即:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_49

测试结果:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_50

从结果中可以看出,仍然保持了 Consensus。再来看保留 Volatile Load,将 Volatile Store 改成 Plain Store:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_51

测试结果:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_52

发现又乱序了。
所以,可以得出结论,这个 StoreLoad 是加在 Volatile 写之后的,在后面的 JVM 底层源码分析我们也能看出来。

7.4 Final 的作用

Java 中,创建对象通过调用类的构造函数实现,我们还可能在构造函数中放一些初始化一些字段的值,例如:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_53

我们可以这样调用构造器创建一个对象:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_54

我们合并这些步骤,用伪代码表示底层实际执行的是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_55

他们之间,没有任何内存屏障,同时根据语义分析,1 和 5 之间有依赖关系,所以 1 和 5 的前后顺序不能变。1,2,3,4 之间有依赖,所以 1,2,3,4 的前后顺序也不能变。2,3,4 与 5 之间,没有任何关系,他们之间的执行顺序是可能乱序的。如果 5 在 2,3,4 中的任一一步之前执行,那么就会造成我们可能看到构造器还未执行完,x,y,z 还是初始值的情况。测试下:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_56

在 x86 平台的测试结果,你只会看到两个结果,即 -1, -1, -1(代表没看到对象初始化)和 1, 2, 3(看到对象初始化,并且没有乱序),结果如下图所示(AMD64 是一种 x86 的实现):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_57

这是因为,前文我们也提到过类似的, x86 CPU 是比较强一致性的 CPU,这里不会乱序。至于由于 x86 哪种不乱序性质这里才不乱序,我们后面会看到。
还是和前文一样,我们换到不那么强一致性的 CPU (ARM)上执行,这里看到的结果就比较热闹了,如下图所示(aarch64 是一种 ARM 实现):

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_58

那我们如何保证看到构造器执行完的结果呢?

用前面的内存屏障设计,我们可以把伪代码的第五步改成 setRelease,即:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_59

前面我们提到过 setRelease 会在前面加上 LoadStore 和 StoreStore 屏障,StoreStore 屏障会防止 2,3,4 与 5 乱序,所以可以避免这个问题,我们来试试看:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_60

再到前面的 aarch64 机器上试一下,结果是:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_61

从结果可以看出,只能看到要么没初始化,要么完整的构造器执行后的结果了。

我们再进一步,其实我们这里只需要 StoreStore 屏障就够了,由此引出了 Java 的 final 关键字:final 其实就是在更新后面紧接着加入 StoreStore 屏障,这样也相当于在构造器结束之前加入 StoreStore 屏障,保证了只要我们能看到对象,对象的构造器一定是执行完了的。测试代码:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_62我们再进一步,由于伪代码中 2,3,4 是互相依赖的,所以这里我们只要保证 4 先于 5 执行,那么2,3,一定先于 5 执行,也就是我们只需要对 z 设置为 final,从而加 StoreStore 内存屏障,而不是每个都声明为 final,从而多加内存屏障

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_63

然后,我们继续用 aarch64 测试,测试结果依然是对的:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_64

最后我们需要注意,final 仅仅是在更新后面加上 StoreStore 屏障,如果你在构造器过程中,将 this 暴露了出去,那么还是会看到 final 的值没有初始化,我们测试下:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_java_65

这次我们在 x86 的机器上就能看到 final 没有初始化:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_66

最后,为何这里的示例中 x86 不需要内存屏障就能实现,参考前面的 CPU 图:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_67

x86 本身 Store 与 Store 之间就不会乱序,天然就有保证。
最后给上表格:

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存屏障_68

微信搜索“我的编程喵”关注公众号,加作者微信,每日一刷,轻松提升技术,斩获各种offer

全网最硬核 Java 新内存模型解析与实验 - 4. Java 新内存访问方式与实验_内存模型_69

我会经常发一些很好的各种框架的官方社区的新闻视频资料并加上个人翻译字幕到如下地址(也包括上面的公众号),欢迎关注:

- 知乎:https://www.zhihu.com/people/zhxhash

- B 站:https://space.bilibili.com/31359187

举报

相关推荐

0 条评论