pc=phase commit——阶段提交
2pc即两阶段提交
3pc即三阶段提交

1.角色

与Paxos、Pbft等算法不同,2pc算法是强一致性,中心化的,也就是说这个算法主要重点集中在CAP的CA(一致性、可用性),前面两个是CP型(一致性,分区容错性)。
中心性的算法需要有一个不容易宕机的机器作为“master”,虽然2pc也有选举机制,但是“master”的死亡会有至少一次决策失效,锁死等问题。
coordinator:协调者,相当于master,中心化的中心节点
partcipant:参与者,相当于slave,中心化的其他节点。

2.目的和方法

基本遵循CPA理论,采用柔性事物特征,软状态或者最终一致性特点保证分布式事物一致性问题。

3.过程

两阶段提交:第一阶段:投票阶段 和第二阶段:提交/执行阶段

3.1 phase1:投票阶段

image.png

事务询问:

协调者 向所有的 参与者 发送事务预处理请求,称之为Prepare,并开始等待各 参与者 的响应。

执行本地事务:

各个 参与者 节点执行本地事务操作,但在执行完成后并不会真正提交数据库本地事务,而是先向 协调者 报告说:“我这边可以处理了/我这边不能处理”。

各参与者向协调者反馈事务询问的响应:

如果 参与者 成功执行了事务操作,那么就反馈给协调者 Yes 响应,表示事务可以执行,如果没有 参与者 成功执行事务,那么就反馈给协调者 No 响应,表示事务不可以执行。
第一阶段执行完后,会有两种可能。1、所有都返回Yes. 2、有一个或者多个返回No。

3.2 phase2:提交/执行阶段(成功流程)

image.png

所有的参与者反馈给协调者的信息都是Yes,那么就会执行事务提交

协调者所有参与者 节点发出Commit请求.

事务提交

参与者 收到Commit请求之后,就会正式执行本地事务Commit操作,并在完成提交之后释放整个事务执行期间占用的事务资源。

3.3 phase2:提交/执行阶段(异常流程)

任何一个 参与者协调者 反馈了 No 响应,或者等待超时之后,协调者尚未收到所有参与者的反馈响应。
image.png

发送回滚请求

协调者 向所有参与者节点发出 RoollBack 请求.

事务回滚

参与者 接收到RoollBack请求后,会回滚本地事务。

4. 2PC缺点

通过上面的演示,很容易想到2pc所带来的缺陷

  1. 性能问题

无论是在第一阶段的过程中,还是在第二阶段,所有的参与者资源和协调者资源都是被锁住的,只有当所有节点准备完毕,事务 协调者 才会通知进行全局提交,
参与者 进行本地事务提交后才会释放资源。这样的过程会比较漫长,对性能影响比较大

  1. 单节点故障

由于协调者的重要性,一旦 协调者 发生故障。参与者 会一直阻塞下去。尤其在第二阶段,协调者 发生故障,那么所有的 参与者 还都处于
锁定事务资源的状态中,而无法继续完成事务操作。(虽然协调者挂掉,可以重新选举一个协调者,但是无法解决因为协调者宕机导致的参与者处于阻塞状态的问题)
2PC出现单点问题的三种情况

  • 协调者正常,参与者宕机

    由于 协调者 无法收集到所有 参与者 的反馈,会陷入阻塞情况。
    解决方案:引入超时机制,如果协调者在超过指定的时间还没有收到参与者的反馈,事务就失败,向所有节点发送终止事务请求。

  • 协调者宕机,参与者正常

    无论处于哪个阶段,由于协调者宕机,无法发送提交请求,所有处于执行了操作但是未提交状态的参与者都会陷入阻塞情况.
    解决方案:引入协调者备份,同时协调者需记录操作日志.当检测到协调者宕机一段时间后,协调者备份取代协调者,并读取操作日志,向所有参与者询问状态。

  • 协调者和参与者都宕机

  1. 发生在第一阶段: 因为第一阶段,所有参与者都没有真正执行commit,所以只需重新在剩余的参与者中重新选出一个协调者,新的协调者在重新执行第一阶段和第二阶段就可以了。
  2. 发生在第二阶段 并且 挂了的参与者在挂掉之前没有收到协调者的指令。也就是上面的第4步挂了,这是可能协调者还没有发送第4步就挂了。这种情形下,新的协调者重新执行第一阶段和第二阶段操作。
  3. 发生在第二阶段 并且 有部分参与者已经执行完commit操作。就好比这里订单服务A和支付服务B都收到协调者 发送的commit信息,开始真正执行本地事务commit,但突发情况,Acommit成功,B确挂了。这个时候目前来讲数据是不一致的。虽然这个时候可以再通过手段让他和协调者通信,再想办法把数据搞成一致的,但是,这段时间内他的数据状态已经是不一致的了! 2PC 无法解决这个问题。

**

5. 3pc过程

3pc就是为了解决2pc上述问题而出现的
3pc就是2pc的改进,加了一个阶段

5.1 phase1:CanCommit阶段

之前2PC的一阶段是本地事务执行结束后,最后不Commit,等其它服务都执行结束并返回Yes,由协调者发生commit才真正执行commit。而这里的CanCommit指的是 尝试获取数据库锁 如果可以,就返回Yes。
image.png

事务询问

协调者参与者 发送CanCommit请求。询问是否可以执行事务提交操作。然后开始等待 参与者 的响应。

响应反馈

参与者 接到CanCommit请求之后,正常情况下,如果其自身认为可以顺利执行事务,则返回Yes响应,并进入预备状态。否则反馈No

5.2 phase2:PreCommit阶段

与2pc的phase1一样,但是加了超时机制避免单节点故障的第一种情况

5.3 phase3:DoCommit阶段

与2pc的phase2一样

5.4 3pc的改进

相比较2PC而言,3PC对于协调者(Coordinator)和参与者(Partcipant)都设置了超时时间,而2PC只有协调者才拥有超时机制。这解决了一个什么问题呢?
这个优化点,主要是避免了参与者在长时间无法与协调者节点通讯(协调者挂掉了)的情况下,无法释放资源的问题,因为参与者自身拥有超时机制会在超时后,
自动进行本地commit从而进行释放资源。而这种机制也侧面降低了整个事务的阻塞时间和范围。
另外,通过CanCommit、PreCommit、DoCommit三个阶段的设计,相较于2PC而言,多设置了一个缓冲阶段保证了在最后提交阶段之前各参与节点的状态是一致的。
以上就是3PC相对于2PC的一个提高(相对缓解了2PC中的前两个问题),但是3PC依然没有完全解决数据不一致的问题。