本文共 23174 字,大约阅读时间需要 77 分钟。
内容大纲
1、 现代计算机理论模型与工作原理
2、什么是线程
3、为什么用到并发,并发的优缺点
4、JMM模型
5、volatile关键字
一、现代计算机理论模型与工作方式
现代计算机模型是基于-冯诺依曼计算机模型
计算机在运行时,先从内存中取出第一条指令,通过控制器的译码,按指令的要求,从存
储器中取出数据进行指定的运算和逻辑操作等加工,然后再按地址把结果送到内存中去。接下
来,再取出第二条指令,在控制器的指挥下完成规定操作。依此进行下去。直至遇到停止指
令。
程序与数据一样存贮,按程序编排的顺序,一步一步地取出指令,自动地完成指令规定的
操作是计算机最基本的工作模型。这一原理最初是由美籍匈牙利数学家冯.诺依曼于1945年提
出来的,故称为冯.诺依曼计算机模型。
1.1、计算机五大核心组成部分:
1. 控制器(Control):是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解
释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访
问等。
2. 运算器 (Datapath) :运算器的功能是对数据进行各种算术运算和逻辑运算,即对数据进
行加工处理。
3. 存储器(Memory):存储器的功能是存储程序、数据和各种信号、命令等信息,并在需
要时提供这些信息。
4. 输入(Input system):输入设备是计算机的重要组成部分,输入设备与输出设备合称为
外部设备,简称外设,输入设备的作用是将程序、原始数据、文字、字符、控制命令或现场采
集的数据等信息输入到计算机。常见的输入设备有键盘、鼠标器、光电输入机、磁带机、磁盘
机、光盘机等。
5. 输出(Output system):输出设备与输入设备同样是计算机的重要组成部分,它把外算
机的中间结果或最后结果、机内的各种数据符号及文字或各种控制信号等信息输出出来。微机
常用的输出设备有显示终端CRT、打印机、激光印字机、绘图仪及磁带、光盘机等。
冯诺依曼计算机模型图:

现代计算机硬件结构原理图:
内存条相对 cpu 的计算速度来说,读取慢,现在的cpu 计算超快,
内存 IO 速度满足不了,cpu 计算速度绰绰有余,所以设计了多级缓存。

1.2、CPU内部结构划分
- 控制单元
- 运算单元
- 存储单元
1、控制单元
控制单元是整个CPU 的指挥控制中心,由指令寄存器 IR ( Instruction Register )、指令
译码器 ID ( Instruction Decoder )和 操作控制器 OC ( Operation Controller ) 等组成,
对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从存储器中取出各条指
令,放在指令寄存器 IR 中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制
器 OC ,按确定的时序,向相应的部件发出微操作控制信号。操作控制器 OC 中主要包括:节拍
脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑。
2、运算单元
运算单元是运算器的核心。可以执行算术运算(包括加减乘数等基本运算及其附加运算)
和逻辑运算(包括移位、逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元
的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的,
所以它是执行部件。
3、存储单元
存储单元包括 CPU 片内缓存 Cache 和寄存器组,是 CPU 中暂时存放数据的地方,里面
保存着那些等待处理的数据,或已经处理过的数据, CPU 访问寄存器所用的时间要比访问内
存的时间短。 寄存器是 CPU 内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间
的数据传送非常快。 采用寄存器,可以减少 CPU 访问内存的次数,从而提高了 CPU 的工作
速度。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应
的数据;而通用寄存器用途广泛并可由程序员规定其用途。
计算机硬件多CPU架构:

多CPU( 一个计算机一台服务器一个主板上有多个 CPU. )
一个现代计算机通常由两个或者多个CPU, 如果要运行多个程序(进程)的话,假如只有
一个CPU的话,就意味着要经常进行进程上下文切换,因为单CPU即便是多核的,也只是多个
处理器核心,其他设备都是共用的,所以 多个进程就必然要经常进行进程上下文切换,这个代
价是很高的 。
CPU多核
一个现代CPU除了处理器核心之外还包括寄存器、L1L2L3缓存这些存储设备、浮点运算
单元、整数运算单元等一些辅助运算设备以及内部总线等 。一个多核的CPU也就是一个CPU上
有多个处理器核心,这样有什么好处呢?比如说现在我们要在一台计算机上跑一个多线程的程
序,因为是一个进程里的线程,所以需要一些共享一些存储变量,如果这台计算机都是单核单
线程CPU的话, 就意味着这个程序的不同线程需要经常在CPU之间的外部总线上通信,同时还
要处理不同CPU之间不同缓存导致数据不一致的问题,所以在这种场景下多核单CPU的架构就
能发挥很大的优势,通信都在内部总线,共用同一个缓存 。
CPU寄存器
每个CPU都包含一系列的寄存器,它们是CPU内内存的基础。CPU在寄存器上执行操作的
速度远大于在主存上执行的速度。这是因为CPU访问寄存器的速度远大于主存。
CPU缓存
即高速缓冲存储器, 是位于 CPU 与主内存间的一种容量较小但速度很高的存储器 。由于
CPU 的速度远高于主内存, CPU 直接从内存中存取数据要等待一定时间周期, Cache 中保存着
CPU 刚用过或循环使用的一部分数据 ,当 CPU 再次使用该部分数据时可从 Cache 中直接调用 ,
减少 CPU 的等待时间,提高了系统的效率。
- 一级Cache(L1 Cache)
- 二级Cache(L2 Cache)
- 三级Cache(L3 Cache)
内存
一个计算机还包含一个主存。所有的CPU都可以访问主存。主存通常比CPU中的缓存大得
多。
CPU读取存储器数据过程
CPU要取寄存器XX的值,只需要一步:直接读取。
CPU要取L1 cache的某个值,需要1-3步(或者更多):把cache行锁住,把某个数据拿
来,解锁,如果没锁住就慢了。
CPU要取L2 cache的某个值,先要到L1 cache里取,L1当中不存在,在L2里,L2开始加
锁,加锁以后,把L2里的数据复制到L1,再执行读L1的过程,上面的3步,再解锁。
CPU取L3 cache的也是一样,只不过先由L3复制到L2,从L2复制到L1,从L1到CPU。
CPU取内存则最复杂:通知内存控制器占用总线带宽,通知内存加锁,发起内存读请求,
等待回应,回应数据保存到L3(如果没有就到L2),再从L3/2到L1,再从L1到CPU,之后解
除总线锁定。
多线程环境下存在的问题
缓存一致性问题
在多处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存
(MainMemory)。基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾,但是
也引入了新的问题:缓存一致性(CacheCoherence)。当多个处理器的运算任务都涉及同一
块主内存区域时,将可能导致各自的缓存数据不一致的情况,如果真的发生这种情况,那同步
回到主内存时以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都
遵循一些协议,在读写时要根据协议来进行操作,这类协议有 MSI 、 MESI (IllinoisProtocol)、
MOSI、Synapse、Firefly及DragonProtocol,等等。 现在用的最多的 MESI 。
CPU多核缓存存储结构:
指令重排序问题
为了使得处理器内部的运算单元能尽量被充分利用,处理器可能会对输入代码进行乱序执
行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该
结果与顺序执行的结果是一致的,但并不保证程序中各个语句计算的先后顺序与输入代码中的
顺序一致。因此,如果存在一个计算任务依赖另一个计算任务的中间结果,那么其顺序性并不
能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,Java虚拟机的即时编译器中也有
类似的指令重排序(Instruction Reorder)优化。
二、什么是线程
现代操作系统在运行一个程序时,会为其创建一个进程。例如,启动一个Java程序,操作
系统就会创建一个Java进程。现代操作系统调度CPU的最小单元是线程,也叫轻量级进程
(Light Weight Process),在一个进程里可以创建多个线程,这些线程都拥有各自的计数
器、堆栈和局部变量等属性,并且能够访问共享的内存变量。处理器在这些线程上高速切换,
让使用者感觉到这些线程在同时执行。
进程是系统分配资源的基本单位,线程是调度CPU的基本单位,一个进程至少包含一个执行线程,
线程寄生在进程当中。 每个线程都有一个程序计数器(记录要执行的下一条指令),一组寄存器
(保存当前线程的工作变量),堆栈(记录执行历史,其中每一帧保存了一个已经调用但未返回的过程)。
线程的实现可以分为两类:
1、用户级线程(User-Level Thread)
2、内核线线程(Kernel-Level Thread)
用户空间划分:
在理解线程分类之前我们需要先了解系统的 用户空间与内核空间两个概念,以4G大小的内存空间为例:
Linux为内核代码和数据结构预留了几个页框,这些页永远不会被转出到磁盘上。从
0x00000000 到 0xc0000000(PAGE_OFFSET) 的线性地址可由用户代码 和 内核代码进行
引用( 即用户空间 )。从0xc0000000(PAGE_OFFSET)到 0xFFFFFFFFF的线性地址只能由
内核代码进行访问( 即内核空间 )。内核代码及其数据结构都必须位于这 1 GB的地址空间
中,但是对于此地址空间而言,更大的消费者是物理地址的虚拟映射。
这意味着在 4 GB 的内存空间中,只有 3 GB 可以用于用户应用程序。一个进程只能运行
在用户方式(usermode)或内核方式(kernelmode)下。用户程序运行在用户方式下,而
系统调用运行在内核方式下。在这两种方式下所用的堆栈不一样:用户方式下用的是一般的堆
栈,而内核方式下用的是固定大小的堆栈(一般为一个内存页的大小)
每个进程都有自己的 3 G 用户空间,它们共享1GB的内核空间。当一个进程从用户空间进
入内核空间时,它就不再有自己的进程空间了。 这也就是为什么我们经常说线程上下文切换会
涉及到用户态到内核态的切换原因所在。
用户线程:指不需要内核支持而在用户程序中实现的线程,其不依赖于操作系统核心,应
用进程利用线程库提供创建、同步、调度和管理线程的函数来控制用户线程。另外,用户线程
是由应用进程利用线程库创建和管理,不依赖于操作系统核心。不需要用户态/核心态切换,
速度快。 操作系统内核不知道多线程的存在 ,因此 一个线程阻塞将使得整个进程(包括它的所
有线程)阻塞 。由于这里的处理器时间片分配是以进程为基本单位,所以每个线程执行的时间
相对减少。
内核线程: 线程的所有管理操作都是由操作系统内核完成的。内核保存线程的状态和上下
文信息,当一个线程执行了引起阻塞的系统调用时,内核可以调度该进程的其他线程执行。在
多处理器系统上,内核可以分派属于同一进程的多个线程在多个处理器上运行,提高进程执行
的并行度。由于需要内核完成线程的创建、调度和管理,所以和用户级线程相比这些操作要慢
得多,但是仍然比进程的创建和管理操作要快。大多数市场上的操作系统,如Windows,
Linux等都支持内核级线程。
原理区别如下图所示
图a)用户线程,图b)内核线程
Java线程与系统内核线程关系
线程深入解读:
Java线程
JVM中创建线程有2种方式
1. new java.lang.Thread().start()
2. 使用JNI将一个native thread attach到JVM中
1)、针对 new java.lang.Thread().start()这种方式,只有调用start()方法的时候,才会真正的在 JVM中去创建线程,主要的生命周期步骤有:
1. 创建对应的JavaThread的instance
2. 创建对应的OSThread的instance
3. 创建实际的底层操作系统的native thread
4. 准备相应的JVM状态,比如ThreadLocal存储空间分配等
5. 底层的native thread开始运行,调用java.lang.Thread生成的Object的run()方法
6. 当java.lang.Thread生成的Object的run()方法执行完毕返回后,或者抛出异常终止后,终止native thread
7. 释放JVM相关的thread的资源,清除对应的JavaThread和OSThread
2)、针对JNI将一个native thread attach到JVM中,主要的步骤有:
1. 通过JNI call AttachCurrentThread申请连接到执行的JVM实例
2. JVM创建相应的JavaThread和OSThread对象
3. 创建相应的java.lang.Thread的对象
4. 一旦java.lang.Thread的Object创建之后,JNI就可以调用Java代码了
5. 当通过JNI call DetachCurrentThread之后,JNI就从JVM实例中断开连接
6. JVM清除相应的JavaThread, OSThread, java.lang.Thread对象
Java线程的生命周期:
三、为什么用到并发?并发会产生什么问题?
1、为什么用到并发
并发编程的本质其实就是利用多线程技术,在现代多核的CPU的背景下,催生了并发编程
的趋势,通过并发编程的形式可以将多核CPU的计算能力发挥到极致,性能得到提升。除此之
外,面对复杂业务模型,并行程序会比串行程序更适应业务需求,而并发编程更能吻合这种业
务拆分 。
即使是单核处理器也支持多线程执行代码, CPU通过给每个线程分配CPU时间片 来实现
这个机制。时间片是CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停地切
换线程执行,让我们感觉多个线程是同时执行的,时间片一般是几十毫秒(ms)。
并发不等于并行 : 并发 指的是 多个任务交替进行 ,而并行则是指真正意义上的“同时进
行”。实际上,如果系统内只有一个CPU,而使用多线程时,那么真实系统环境下不能并行,
只能通过 切换时间片 的方式交替进行,而成为并发执行任务。 真正的并行也只能出现在拥有多
个CPU的系统中 。
并发的优点:
1. 充分利用多核CPU的计算能力;
2. 方便进行业务拆分,提升应用性能;
并发产生的问题:
- 高并发场景下,导致频繁的上下文切换
- 临界区线程安全问题,容易出现死锁的,产生死锁就会造成系统功能不可用
- 其它
CPU通过 时间片分配算法 来循环执行任务,当前任务执行一个时间片后会切换到下一个
任务。但是,在 切换前会保存上一个任务的状态 ,以便下次切换回这个任务时,可以再加载这
个任务的状态。所以任务从 保存 到 再加载 的过程就是一次上下文切换。
线程上下文切换过程:
四、什么是JMM模型?
4.1、JMM是一组规范。
Java内存模型(Java Memory Model简称JMM)是一种抽象的概念,并不真实存在,它描
述的是一组规则或规范,通过这组规范定义了程序中各个变量(包括实例字段,静态字段和构
成数组对象的元素)的访问方式。JVM运行程序的实体是线程,而每个线程创建时JVM都会为
其创建一个工作内存(有些地方称为栈空间),用于存储线程私有的数据,而Java内存模型中规
定所有变量都存储在主内存,主内存是共享内存区域,所有线程都可以访问,但线程对变量的
操作(读取赋值等)必须在工作内存中进行,首先要将变量从主内存拷贝的自己的工作内存空
间,然后对变量进行操作,操作完成后再将变量写回主内存,不能直接操作主内存中的变量,
工作内存中存储着主内存中的变量副本拷贝,前面说过,工作内存是每个线程的私有数据区
域,因此不同的线程间无法访问对方的工作内存,线程间的通信(传值)必须通过主内存来完
成。
JVM虚拟机规范主内存与工作内存
JMM不同于JVM内存区域模型
JMM与JVM内存区域的划分是不同的概念层次,更恰当说JMM描述的是一组规则,通过这组规则控制程序中各个变量在共享数据区域和私有数据区域的访问方式, JMM是围绕原子 性,有序性、可见性展开 。
JMM与Java内存区域唯一相似点,都存在共享数据区域和私有数据区域。
在JMM中主内存属于共享数据区域,从某个程度上讲应该包括了堆和方法区。
而工作内存数据线程私有数据区域,从某个程度上讲则应该包括程序计数器、虚拟机栈以及本地方法栈。
JVM 进程,他去申请的空间,大部分时候,操作的是逻辑空间,不是物理空间。
逻辑空间是由系统已经划分好的。不同逻辑空间可能映射到同一块物理空间。
JMM 是一组规范。这个规范是为了屏蔽底层硬件的具体实现不同。由JVM 遵从该规范去实现屏蔽。
线程,工作内存,主内存工作交互图(基于JMM规范):
主内存
主要存储的是Java实例对象,所有线程创建的实例对象都存放在主内存中,不管该实例对
象是成员变量还是方法中的本地变量(也称局部变量) ,当然也包括了共享的类信息、常量、静
态变量。由于是共享数据区域,多条线程对同一个变量进行访问可能会发生线程安全问题。
工作内存
主要存储当前方法的所有本地变量信息(工作内存中存储着主内存中的变量副本拷贝),每
个线程只能访问自己的工作内存,即线程中的本地变量对其它线程是不可见的,就算是两个线
程执行的是同一段代码,它们也会各自在自己的工作内存中创建属于当前线程的本地变量,当
然也包括了字节码行号指示器、相关Native方法的信息。注意由于工作内存是每个线程的私有
数据,线程间无法相互访问工作内存,因此存储在工作内存的数据不存在线程安全问题。
根据JVM虚拟机规范 主内存与工作内存的数据存储类型以及操作方式,对于一个实例对象
中的成员方法而言,如果方法中包含本地变量是基本数据类型
(boolean,byte,short,char,int,long,float,double),将直接存储在工作内存的帧栈结构中,
但倘若本地变量是引用类型,那么该变量的引用会存储在功能内存的帧栈中,而对象实例将存
储在主内存(共享数据区域,堆)中。但对于实例对象的成员变量,不管它是基本数据类型或者
包装类型(Integer、Double等)还是引用类型,都会被存储到堆区。至于static变量以及类本身
相关信息将会存储在主内存中。需要注意的是,在主内存中的实例对象可以被多线程共享,倘
若两个线程同时调用了同一个对象的同一个方法,那么两条线程会将要操作的数据拷贝一份到
自己的工作内存中,执行完成操作后才刷新到主内存。
模型如下图所示:
Java内存模型与硬件内存架构的关系
通过对前面的硬件内存架构、Java内存模型以及Java多线程的实现原理的了解,我们应该
已经意识到,多线程的执行最终都会映射到硬件处理器上进行执行,但Java内存模型和硬件内
存架构并不完全一致。对于硬件内存来说只有寄存器、缓存内存、主内存的概念,并没有工作
内存(线程私有数据区域)和主内存(堆内存)之分,也就是说Java内存模型对内存的划分对硬件内
存并没有任何影响,因为JMM只是一种抽象的概念,是一组规则,并不实际存在,不管是工作
内存的数据还是主内存的数据,对于计算机硬件来说都会存储在计算机主内存中,当然也有可
能存储到CPU缓存或者寄存器中,因此总体上来说,Java内存模型和计算机硬件内存架构是一
个相互交叉的关系,是一种抽象概念划分与真实物理硬件的交叉。(注意对于Java内存区域划分
也是同样的道理)
JMM存在的必要性
在明白了Java内存区域划分、硬件内存架构、Java多线程的实现原理与Java内存模型的具
体关系后,接着来谈谈Java内存模型存在的必要性。由于JVM运行程序的实体是线程,而每个
线程创建时JVM都会为其创建一个工作内存(有些地方称为栈空间),用于存储线程私有的数
据,线程与主内存中的变量操作必须通过工作内存间接完成,主要过程是将变量从主内存拷贝
的每个线程各自的工作内存空间,然后对变量进行操作,操作完成后再将变量写回主内存,如
果存在两个线程同时对一个主内存中的实例对象的变量进行操作就有可能诱发线程安全问题。
假设主内存中存在一个共享变量x,现在有A和B两条线程分别对该变量x=1进行操作,
A/B线程各自的工作内存中存在共享变量副本x。假设现在A线程想要修改x的值为2,而B线程
却想要读取x的值,那么B线程读取到的值是A线程更新后的值2还是更新前的值1呢?答案是,
不确定,即B线程有可能读取到A线程更新前的值1,也有可能读取到A线程更新后的值2,这是
因为工作内存是每个线程私有的数据区域,而线程A变量x时,首先是将变量从主内存拷贝到A
线程的工作内存中,然后对变量进行操作,操作完成后再将变量x写回主内,而对于B线程的也
是类似的,这样就有可能造成主内存与工作内存间数据存在一致性问题,假如A线程修改完后
正在将数据写回主内存,而B线程此时正在读取主内存,即将x=1拷贝到自己的工作内存中,
这样B线程读取到的值就是x=1,但如果A线程已将x=2写回主内存后,B线程才开始读取的
话,那么此时B线程读取到的就是x=2,但到底是哪种情况先发生呢?
如以下示例图所示案例:
以上关于主内存与工作内存之间的具体交互协议,即一个变量如何从主内存拷贝到工作内
存、如何从工作内存同步到主内存之间的实现细节,Java内存模型定义了以下八种操作来完
成。
4.2、JMM-同步八种操作介绍
4.2.1、Java内存模型内存交互操作
(1) lock(锁定) :作用于主内存的变量,把一个变量标记为一条线程独占状态
(2) unlock(解锁) :作用于主内存的变量,把一个处于锁定状态的变量释放出来,释放后的
变量才可以被其他线程锁定
(3) read(读取) :作用于主内存的变量,把一个变量值从主内存传输到线程的工作内存中,
以便随后的load动作使用
(4) load(载入) :作用于工作内存的变量,它把read操作从主内存中得到的变量值放入工作
内存的变量副本中
(5) use(使用) :作用于工作内存的变量,把工作内存中的一个变量值传递给执行引擎
(6) assign(赋值) :作用于工作内存的变量,它把一个从执行引擎接收到的值赋给工作内存
的变量
(7) store(存储) :作用于工作内存的变量,把工作内存中的一个变量的值传送到主内存中,
以便随后的write的操作
(8) write(写入) :作用于工作内存的变量,它把store操作从工作内存中的一个变量的值传送
到主内存的变量中
如果要把一个变量从主内存中复制到工作内存中,就需要按顺序地执行read和load操作,
如果把变量从工作内存中同步到主内存中,就需要按顺序地执行store和write操作。但Java内
存模型只要求上述操作必须按顺序执行,而没有保证必须是连续执行。
(read和load,以及store和write是成对执行的,其中一个执行了另一个就会立马执行。)
4.2.2、Java内存模型内存同步规则
1)不允许一个线程无原因地(没有发生过任何assign操作)把数据从工作内存同步回主内存中。
2)一个新的变量只能在主内存中诞生,不允许在工作内存中直接使用一个未被初始化(load或者assign)的变量。
即就是对一个变量实施use和store操作之前,必须先自行assign和load操作。
3)一个变量在同一时刻只允许一条线程对其进行lock操作,但lock操作可以被同一线程重复执行多次,
多次执行lock后,只有执行相同次数的unlock操作,变量才会被解锁。lock和unlock必须成对出现。
4)如果对一个变量执行lock操作,将会清空工作内存中此变量的值,在执行引擎使用这个变
量之前需要重新执行load或assign操作初始化变量的值。
5)如果一个变量事先没有被lock操作锁定,则不允许对它执行unlock操作;也不允许去
unlock一个被其他线程锁定的变量。
6)对一个变量执行unlock操作之前,必须先把此变量同步到主内存中(执行store和write操作)。
4.2.3、并发编程的可见性,原子性与有序性问题
原子性
原子性指的是一个操作是不可中断的,即使是在多线程环境下,一个操作一旦开始就不会
被其他线程影响。
在java中,对基本数据类型的变量的读取和赋值操作是原子性操作有点要注意的是,对于
32位系统的来说,long类型数据和double类型数据(对于基本数据类型,
byte,short,int,float,boolean,char读写是原子操作),它们的读写并非原子性的,也就是说如
果存在两条线程同时对long类型或者double类型的数据进行读写是存在相互干扰的,因为对
于32位虚拟机来说,每次原子读写是32位的,而long和double则是64位的存储单元,这样会 导致一个线程在写时,操作完前32位的原子操作后,轮到B线程读取时,恰好只读取到了后32
位的数据,这样可能会读取到一个既非原值又不是线程修改值的变量,它可能是“半个变
量”的数值,即64位数据被两个线程分成了两次读取。但也不必太担心,因为读取到“半个变
量”的情况比较少见,至少在目前的商用的虚拟机中,几乎都把64位的数据的读写操作作为原
子操作来执行,因此对于这个问题不必太在意,知道这么回事即可。
X=10; //原子性(简单的读取、将数字赋值给变量)
Y = x; //变量之间的相互赋值,不是原子操作
X++; //对变量进行计算操作
X = x+1;
可见性
理解了指令重排现象后,可见性容易了,可见性指的是当一个线程修改了某个共享变量的
值,其他线程是否能够马上得知这个修改的值。对于串行程序来说,可见性是不存在的,因为
我们在任何一个操作中修改了某个变量的值,后续的操作中都能读取这个变量值,并且是修改
过的新值。
但在多线程环境中可就不一定了,前面我们分析过,由于线程对共享变量的操作都是线程
拷贝到各自的工作内存进行操作后才写回到主内存中的,这就可能存在一个线程A修改了共享
变量x的值,还未写回主内存时,另外一个线程B又对主内存中同一个共享变量x进行操作,但
此时A线程工作内存中共享变量x对线程B来说并不可见,这种工作内存与主内存同步延迟现象
就造成了可见性问题,另外指令重排以及编译器优化也可能导致可见性问题,通过前面的分
析,我们知道无论是编译器优化还是处理器优化的重排现象,在多线程环境下,确实会导致程
序轮序执行的问题,从而也就导致可见性问题。
有序性
有序性是指对于单线程的执行代码,我们总是认为代码的执行是按顺序依次执行的,这样
的理解并没有毛病,毕竟对于单线程而言确实如此,但对于多线程环境,则可能出现乱序现
象,因为程序编译成机器码指令后可能会出现指令重排现象,重排后的指令与原指令的顺序未
必一致,要明白的是,在Java程序中,倘若在本线程内,所有操作都视为有序行为,如果是多
线程环境下,一个线程中观察另外一个线程,所有操作都是无序的,前半句指的是单线程内保
证串行语义执行的一致性,后半句则指指令重排现象和工作内存与主内存同步延迟现象。
4.2.4、JMM如何解决原子性&可见性&有序性问题
代码示例参见myBaiBaoXiang工程并发目录下。
原子性问题
除了JVM自身提供的对基本数据类型读写操作的原子性外,可以通过 synchronized 和
Lock 实现原子性。因为synchronized和Lock能够保证任一时刻只有一个线程访问该代码块。
可见性问题
volatile关键字保证可见性。当一个共享变量被volatile修饰时,它会保证修改的值立即被
其他的线程看到,即修改的值立即更新到主存中,当其他线程需要读取时,它会去内存中读取
新值。synchronized和Lock也可以保证可见性,因为它们可以保证任一时刻只有一个线程能
访问共享资源,并在其释放锁之前将修改的变量刷新到内存中。
有序性问题
在Java里面,可以通过volatile关键字来保证一定的“有序性”(具体原理在下面讲述
volatile关键字)。另外可以通过synchronized和Lock来保证有序性,很显然,synchronized
和Lock保证每个时刻是有一个线程执行同步代码,相当于是让线程顺序执行同步代码,自然就
保证了有序性。
Java内存模型:每个线程都有自己的工作内存(类似于前面的高速缓存)。线程对变量的
所有操作都必须在工作内存中进行,而不能直接对主存进行操作。并且每个线程不能访问其他
线程的工作内存。Java内存模型具备一些先天的“有序性”,即不需要通过任何手段就能够得
到保证的有序性,这个通常也称为happens-before 原则。如果两个操作的执行次序无法从
happens-before原则推导出来,那么它们就不能保证它们的有序性,虚拟机可以随意地对它
们进行重排序。
指令重排序:java语言规范规定JVM线程内部维持顺序化语义。即只要程序的最终结果与
它顺序化情况的结果相等,那么指令的执行顺序可以与代码顺序不一致,此过程叫指令的重排
序。指令重排序的意义是什么?JVM能根据处理器特性(CPU多级缓存系统、多核处理器等)
适当的对机器指令进行重排序,使机器指令能更符合CPU的执行特性,最大限度的发挥机器性能。
下图为从源码到最终执行的指令序列示意图
as-if-serial语义
as-if-serial语义的意思是:不管怎么重排序(编译器和处理器为了提高并行度),(单线
程)程序的执行结果不能被改变。编译器、runtime和处理器都必须遵守as-if-serial语义。
为了遵守as-if-serial语义,编译器和处理器不会对存在数据依赖关系的操作做重排序,因
为这种重排序会改变执行结果。但是,如果操作之间不存在数据依赖关系,这些操作就可能被
编译器和处理器重排序。
happens-before 原则
只靠sychronized和volatile关键字来保证原子性、可见性以及有序性,那么编写并发程序
可能会显得十分麻烦,幸运的是,从JDK 5开始,Java使用新的JSR-133内存模型,提供了
happens-before 原则 来辅助保证程序执行的原子性、可见性以及有序性的问题,它是判断数
据是否存在竞争、线程是否安全的依据,happens-before 原则内容如下:
1. 程序顺序原则,即在一个线程内必须保证语义串行性,也就是说按照代码顺序执行。
2. 锁规则 解锁(unlock)操作必然发生在后续的同一个锁的加锁(lock)之前,也就是说,如果对于
一个锁解锁后,再加锁,那么加锁的动作必须在解锁动作之后(同一个锁)。
3. volatile规则 volatile变量的写,先发生于读,这保证了volatile变量的可见性,简单的理解就是,
volatile变量在每次被线程访问时,都强迫从主内存中读该变量的值,而当该变量发生变化时,又会强迫
将最新的值刷新到主内存,任何时刻,不同的线程总是能够看到该变量的最新值。
4. 线程启动规则 线程的start()方法先于它的每一个动作,即如果线程A在执行线程B的start方法之前
修改了共享变量的值,那么当线程B执行start方法时,线程A对共享变量的修改对线程B可见。
5. 传递性 A先于B ,B先于C 那么A必然先于C
6. 线程终止规则 线程的所有操作先于线程的终结,Thread.join()方法的作用是等待当前执行的线程终止。
假设在线程B终止之前,修改了共享变量,线程A从线程B的join方法成功返回后,线程B对共享变量的修改将对线程A可见。
7. 线程中断规则 对线程 interrupt()方法的调用先行发生于被中断线程的代码检测到中断事件的发生,可以通过Thread.interrupted()方法检测线程是否中断。
8. 对象终结规则 对象的构造函数执行,结束先于finalize()方法
五、volatile关键字



5.1、volatile原理与内存语义
volatile是Java虚拟机提供的轻量级的同步机制。
volatile关键字有如下两个作用
- 可见性:保证被volatile修饰的共享变量对所有线程总数可见的,也就是当一个线程修改了一个被volatile修饰共享变量的值,新值总是可以被其他线程立即得知。
- 有序性:禁止指令重排序优化。
5.1.1、volatile的可见性
关于volatile的可见性作用,我们必须意识到被volatile修饰的变量对所有线程总数立即可见的,对volatile变量的所有写操作总是能立刻反应到其他线程中。
示例: 线程A改变initFlag属性之后,线程B马上感知到
/** * 线程A改变initFlag属性之后,线程B马上感知到 */public class VolatileVisibilitySample { volatile boolean initFlag = false; public void save() { this.initFlag = true; String threadname = Thread.currentThread().getName(); System.out.println("线程:" + threadname + ":修改共享变量initFlag"); } public void load() { String threadname = Thread.currentThread().getName(); while (!initFlag) { //线程在此处空跑,等待initFlag状态改变 } System.out.println("线程:" + threadname + "当前线程嗅探到initFlag的状 态的改变"); } public static void main(String[] args) { VolatileVisibilitySample sample = new VolatileVisibilitySample(); Thread threadA = new Thread(() -> { sample.save(); }, "threadA"); Thread threadB = new Thread(() -> { sample.load(); }, "threadB"); threadB.start(); try { Thread.sleep(1000); } catch (InterruptedException e) { e.printStackTrace(); } threadA.start(); }}
详解:
package my.mark.mybaibaoxiang.concurrent.jmmAndVolatile.jmm;/** * volatile的可见性:线程A改变initFlag属性之后,线程B马上感知到 */public class VolatileVisibilitySample { //TODO 在这个共享变量加volatile关键字,可以让该变量变化时立马被别的线程嗅探到。 /** * volatile是一个特征修饰符(type specifier)。 * volatile的作用是作为指令关键字,确保本条指令不会因编译器的优化而省略,且//TODO 要求每次直接读值。 * volatile的变量是说这变量可能会被意想不到地改变,这样,编译器就不会去假设这个变量的值了。 */ private volatile boolean initFlag = false; static Object object = new Object(); public void refresh(){ this.initFlag = true; //普通写操作,(相对于volatile写) String threadname = Thread.currentThread().getName(); System.out.println("线程:"+threadname+":修改共享变量initFlag"); } public void load(){ String threadname = Thread.currentThread().getName(); int i = 0; while (!initFlag){ //线程在此处空跑,等待initFlag状态改变 /** * 如果此处不加synchronized同步代码块,则该线程可能会一直在跑,优先级比较高,别的线程抢不到他的cpu资源。 * TODO 如果此处加该同步代码块,initFlag值变化也会被感知到, * 但原因是同步代码块有可能产生竞争和阻塞,导致两个线程上下文切换的时候,重新读取了initFlag的值。 */ synchronized (object){ i++; } //i++; } System.out.println("线程:"+threadname+"当前线程嗅探到initFlag的状态的改变"+i); } public static void main(String[] args){ VolatileVisibilitySample sample = new VolatileVisibilitySample(); Thread threadA = new Thread(()->{ sample.refresh(); },"threadA"); Thread threadB = new Thread(()->{ sample.load(); },"threadB"); threadB.start(); try { Thread.sleep(2000); } catch (InterruptedException e) { e.printStackTrace(); } threadA.start(); }}
volatile缓存可见性实现原理 :
- JMM内存交互层面:volatile修饰的变量的read、load、use操作和assign、store、write必须是连续的,即修改后必须立即同步回主内存,使用时必须从主内存刷新,由此保证volatile变量的可见性。
- 底层实现:通过汇编lock前缀指令,它会锁定变量缓存行区域并写回主内存,这个操作称为“缓存锁定”,缓存一致性机制会阻止同时修改被两个以上处理器缓存的内存区域数据。一个处理器的缓存回写到内存内存会导致其他处理器的缓存无效。

5.1.2、volatile无法保证原子性
示例
public class VolatileVisibility { public static volatile int i =0; public static void increase(){ i++; }}
在并发场景下,i变量的任何改变都会立马反应到其他线程中,但是如果存在多条线程同时调用increase()方法的话,就会出现线程安全问题,毕竟i++;操作并不具备原子性,该操作是先读取值,然后写回一个新值,相当于原来的值加上1,分两步完成,如果第二个线程在第一个线程读取旧值和写回新值期间读取i的域值,那么第二个线程就会与第一个线程一起看到同一个值,并执行相同值的加1操作,这也就造成了线程安全失败,因此对于increase方法必须使用synchronized修饰,以便保证线程安全,需要注意的是一旦使用synchronized修饰方法后,由于synchronized本身也具备与volatile相同的特性,即可见性,因此在这样种情况下就完全可以省去volatile修饰变量。

5.1.3、volatile禁止指令重排优化
volatile关键字另一个作用就是禁止指令重排优化,从而避免多线程环境下程序出现乱序
执行的现象,关于指令重排优化前面已详细分析过,这里主要简单说明一下volatile是如何实
现禁止指令重排优化的。先了解一个概念,内存屏障(Memory Barrier)。
内存屏障,又称内存栅栏,是一个CPU指令,它的作用有两个,一是保证特定操作的执行
顺序,二是保证某些变量的内存可见性(利用该特性实现volatile的内存可见性)。 由于编译
器和处理器都能执行指令重排优化 。如果在指令间插入一条Memory Barrier则会告诉编译器
和CPU,不管什么指令都不能和这条Memory Barrier指令重排序,也就是说通过插入内存屏
障禁止在内存屏障前后的指令执行重排序优化。Memory Barrier的另外一个作用是强制刷出
各种CPU的缓存数据,因此任何CPU上的线程都能读取到这些数据的最新版本。总之,
volatile变量正是通过内存屏障实现其在内存中的语义,即可见性和禁止重排优化。下面看一
个非常典型的禁止重排优化的例子DCL,如下:
package my.mark.mybaibaoxiang.concurrent.jmmAndVolatile.jmm;/** * 双重检查锁定模式: * 经典的单例的双重检测的代码,这段代码在单线程环境下并没有什么问题,但如果在多线程环境下就可以出现线程安全问题。 * 原因在于某一个线程执行到第一次检测,读 取到的instance不为null时,instance的引用对象可能没有完成初始化。 */public class DoubleCheckLock { private static DoubleCheckLock instance; private DoubleCheckLock() { } public static DoubleCheckLock getInstance() { //第一次检测 if (instance == null) { //同步 synchronized (DoubleCheckLock.class) { if (instance == null) { //多线程环境下可能会出现问题的地方 instance = new DoubleCheckLock(); } } } return instance; }}
上述代码一个经典的单例的双重检测的代码,这段代码在单线程环境下并没有什么问题,但如果在多线程环境下就可以出现线程安全问题。原因在于某一个线程执行到第一次检测,读取到的instance不为null时,instance的引用对象可能没有完成初始化。
因为instance = new DoubleCheckLock();可以分为以下3步完成(伪代码)
memory = allocate(); //1.分配对象内存空间
instance(memory); //2.初始化对象
instance = memory; //3.设置instance指向刚分配的内存地址,此时instance!=null
由于步骤1和步骤2间可能会重排序,如下:
memory=allocate(); //1.分配对象内存空间
instance=memory; //3.设置instance指向刚分配的内存地址,此时instance!=null,但是对象还没有初始化完成!
instance(memory); //2.初始化对象
由于步骤2和步骤3不存在数据依赖关系,而且无论重排前还是重排后程序的执行结果在单
线程中并没有改变,因此这种重排优化是允许的。但是指令重排只会保证串行语义的执行的一
致性(单线程),但并不会关心多线程间的语义一致性。所以当一条线程访问instance不为null
时,由于instance实例未必已初始化完成,也就造成了线程安全问题。那么该如何解决呢,很
简单,我们使用volatile禁止instance变量被执行指令重排优化即可。
//禁止指令重排优化private volatile static DoubleCheckLock instance;
详解:
package my.mark.mybaibaoxiang.concurrent.jmmAndVolatile.jmm;/** * volatile禁止指令重排优化 * * 双重检查锁定模式: * 双重检查锁定模式(也被称为"双重检查加锁优化","锁暗示"(Lock hint)) 是一种软件设计模式用来减少并发系统中竞争和同步的开销。 * 双重检查锁定模式首先验证锁定条件(第一次检查),只有通过锁定条件验证才真正的进行加锁逻辑并再次验证条件(第二次检查)。 * 该模式在某些语言在某些硬件平台的实现可能是不安全的。 * 它通常用于减少加锁开销,尤其是为多线程环境中的单例模式实现“惰性初始化”。惰性初始化的意思是直到第一次访问时才初始化它的值。 */public class Singleton { /** * 查看汇编指令(需安装Hsdis,工程下有。) * -XX:+UnlockDiagnosticVMOptions -XX:+PrintAssembly -Xcomp */ private volatile static Singleton myinstance;//TODO 加volatile防止下面对象初始化时产生指令重排。 /** * TODO 超高并发下的单例一定要像下面这样加双重锁 */ public static Singleton getInstance() { if (myinstance == null) { synchronized (Singleton.class) {//synchronized不保证代码块里不发生指令重排。 if (myinstance == null) { /** * TODO 对象创建过程,本质可以分为三步: * 1、申请内存空间address=allocate。2、实例化对象instance(Object),向内存填充对象数据。3、将内存空间地址指向myinstance变量引用myinstance=address。 * 三步没法保证原子性,也有可能发生指令重排。 * 比方2和3颠倒,高并发下线程1执行了3,还没执行2,此时myinstance有地址指向已经不为null,但里面没值,则return之后操作里面便会空指针。 */ myinstance = new Singleton(); //对象延迟初始化 // } } } return myinstance; } public static void main(String[] args) { Singleton.getInstance(); }}
汇编代码查看:
-XX:+UnlockDiagnosticVMOptions -XX:+PrintAssembly -Xcomp
volatile修饰字段指令前加锁:

5.1.4、volatile内存语义的实现
前面提到过重排序分为编译器重排序和处理器重排序。为了实现volatile内存语义,JMM会分别限制这两种类型的重排序类型。
下图是JMM针对编译器制定的volatile重排序规则表。
举例来说,第三行最后一个单元格的意思是:在程序中,当第一个操作为普通变量的读或
写时,如果第二个操作为volatile写,则编译器不能重排序这两个操作。
从上图可以看出:
当第二个操作是volatile写时,不管第一个操作是什么,都不能重排序。这个规则确保
volatile写之前的操作不会被编译器重排序到volatile写之后。
∙当第一个操作是volatile读时,不管第二个操作是什么,都不能重排序。这个规则确保
volatile读之后的操作不会被编译器重排序到volatile读之前。
∙当第一个操作是volatile写,第二个操作是volatile读时,不能重排序。
为了实现volatile的内存语义,编译器在生成字节码时,会在指令序列中插入内存屏障来
禁止特定类型的处理器重排序。对于编译器来说,发现一个最优布置来最小化插入屏障的总数
几乎不可能。为此,JMM采取保守策略。下面是基于保守策略的JMM内存屏障插入策略。
- ∙在每个volatile写操作的前面插入一个StoreStore屏障。(写写)
- ∙在每个volatile写操作的后面插入一个StoreLoad屏障。(写读)
- ∙在每个volatile读操作的后面插入一个LoadLoad屏障。(读读)
- ∙在每个volatile读操作的后面插入一个LoadStore屏障。(读写)
上述内存屏障插入策略非常保守,但它可以保证在任意处理器平台,任意的程序中都能得到正确的volatile内存语义。
下面是保守策略下,volatile写插入内存屏障后生成的指令序列示意图
上图中StoreStore屏障可以保证在volatile写之前,其前面的所有普通写操作已经对任意
处理器可见了。这是因为StoreStore屏障将保障上面所有的普通写在volatile写之前刷新到主内存。
这里比较有意思的是,volatile写后面的StoreLoad屏障。此屏障的作用是避免
volatile写与 后面可能有的volatile读/写操作重排序。因为编译器常常无法准确判断在
一个volatile写的后面 是否需要插入一个StoreLoad屏障(比如,一个volatile写之后方
法立即return)。为了保证能正确 实现volatile的内存语义,JMM在采取了保守策略:
在每个volatile写的后面,或者在每个volatile 读的前面插入一个StoreLoad屏障。从整
体执行效率的角度考虑,JMM最终选择了在每个 volatile写的后面插入一个StoreLoad
屏障。因为volatile写-读内存语义的常见使用模式是:一个 写线程写volatile变量,多
个读线程读同一个volatile变量。当读线程的数量大大超过写线程时,选择在volatile写
之后插入StoreLoad屏障将带来可观的执行效率的提升。从这里可以看到JMM 在实现上
的一个特点:首先确保正确性,然后再去追求执行效率。
下图是在保守策略下,volatile读插入内存屏障后生成的指令序列示意图
上图中LoadLoad屏障用来禁止处理器把上面的volatile读与下面的普通读重排序。LoadStore
屏障用来禁止处理器把上面的volatile读与下面的普通写重排序。
上述volatile写和volatile读的内存屏障插入策略非常保守。在实际执行时,只要不
改变 volatile写-读的内存语义,编译器可以根据具体情况省略不必要的屏障。下面通过
具体的示例代码进行说明。
/** * 与主内存-堆交互的便是volatile读或者写 * 在工作内存-栈中完成的便是普通读写。 */public class VolatileBarrierExample { int a; volatile int m1 = 1; volatile int m2 = 2; void readAndWrite() { int i = m1; // 第一个volatile读 int j = m2; // 第二个volatile读 a = i + j; // 普通写 m1 = i + 1; // 第一个volatile写 m2 = j * 2; // 第二个 volatile写 }}
针对readAndWrite()方法,编译器在生成字节码时可以做如下的优化:
注意,最后的StoreLoad屏障不能省略。因为第二个volatile写之后,方法立即
return。此时编 译器可能无法准确断定后面是否会有volatile读或写,为了安全起见,
编译器通常会在这里插 入一个StoreLoad屏障。
上面的优化针对任意处理器平台,由于不同的处理器有不同“松紧度”的处理器内
存模 型,内存屏障的插入还可以根据具体的处理器内存模型继续优化。以X86处理器为
例,图3-21 中除最后的StoreLoad屏障外,其他的屏障都会被省略。
前面保守策略下的volatile读和写,在X86处理器平台可以优化成如下图所示。前文
提到过,X86处理器仅会对写-读操作做重排序。X86不会对读-读、读-写和写-写操作
做重排序,因此在X86处理器中会省略掉这3种操作类型对应的内存屏障。在X86中,
JMM仅需 在volatile写后面插入一个StoreLoad屏障即可正确实现volatile写-读的内存
语义。这意味着在 X86处理器中,volatile写的开销比volatile读的开销会大很多(因为
执行StoreLoad屏障开销会比较大)。
5.2、cas和volatile关键字的使用会产生什么问题?总线风暴
什么情况下将导致总线风暴?
大量线程 cpu 通过总线交互会导致总线风暴。