一、相关知识

分布式的CAP理论告诉我们“任何一个分布式系统都无法同时满足一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance),最多只能同时满足两项。”所以,很多系统在设计之初就要对这三者做出取舍。在互联网领域的绝大多数的场景中,都需要牺牲强一致性来换取系统的高可用性,系统往往只需要保证“最终一致性”,只要这个最终时间是在用户可以接受的范围内即可。
为了保证数据的最终一致性,需要很多的技术方案来支持,比如分布式事务、分布式锁等

二、分布式锁应该具备哪些条件

1、在分布式系统环境下,一个方法在同一时间只能被一个机器的一个线程执行;
2、高可用的获取锁与释放锁;
3、高性能的获取锁与释放锁;
4、具备可重入特性;
5、具备锁失效机制,防止死锁;
6、具备非阻塞锁特性,即没有获取到锁将直接返回获取锁失败。

三、分布式锁的三种实现方式

基于数据库的实现方式

基于数据库的实现方式的核心思想是:在数据库中创建一个表,表中包含方法名等字段,并在方法名字段上创建唯一索引,想要执行某个方法,就使用这个方法名向表中插入数据,成功插入则获取锁,执行完成后删除对应的行数据释放锁。

方案一

实现步骤

  1. 创建一个表:

    1. DROP TABLE IF EXISTS `method_lock`;
    2. CREATE TABLE `method_lock` (
    3. `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT '主键',
    4. `method_name` varchar(64) NOT NULL COMMENT '锁定的方法名',
    5. `desc` varchar(255) NOT NULL COMMENT '备注信息',
    6. `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
    7. PRIMARY KEY (`id`),
    8. UNIQUE KEY `uidx_method_name` (`method_name`) USING BTREE
    9. ) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8 COMMENT='锁定中的方法';
  2. 想要执行某个方法,就使用这个方法名向表中插入数据:

    1. INSERT INTO method_lock (method_name, desc) VALUES ('methodName', '测试的methodName');

    因为我们对method_name做了唯一性约束,这里如果有多个请求同时提交到数据库的话,数据库会保证只有一个操作可以成功,那么我们就可以认为操作成功的那个线程获得了该方法的锁,可以执行方法体内容。

  3. 成功插入则获取锁,执行完成后删除对应的行数据释放锁:

    1. delete from method_lock where method_name ='methodName';

    存在问题

    对于分布式锁应该具备的条件来说,它有一些问题需要解决及优化:

  4. 因为是基于数据库实现的,数据库的可用性和性能将直接影响分布式锁的可用性及性能,所以,数据库需要双机部署、数据同步、主备切换;

  5. 不具备可重入的特性,因为同一个线程在释放锁之前,行数据一直存在,无法再次成功插入数据,所以,需要在表中新增一列,用于记录当前获取到锁的机器和线程信息,在再次获取锁的时候,先查询表中机器和线程信息是否和当前机器和线程相同,若相同则直接获取锁;
  6. 没有锁失效机制,因为有可能出现成功插入数据后,服务器宕机了,对应的数据没有被删除,当服务恢复后一直获取不到锁,所以,需要在表中新增一列,用于记录失效时间,并且需要有定时任务清除这些失效的数据;
  7. 不具备阻塞锁特性,获取不到锁直接返回失败,所以需要优化获取逻辑,循环多次去获取
  8. 依赖数据库需要一定的资源开销,性能问题需要考虑。

    方案二

    实现步骤

  9. 创建一个表:

    1. DROP TABLE IF EXISTS `method_lock`;
    2. CREATE TABLE `method_lock` (
    3. `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT '主键',
    4. `method_name` varchar(64) NOT NULL COMMENT '锁定的方法名',
    5. `state` tinyint NOT NULL COMMENT '1:未分配;2:已分配',
    6. `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
    7. `version` int NOT NULL COMMENT '版本号',
    8. `PRIMARY KEY (`id`),
    9. UNIQUE KEY `uidx_method_name` (`method_name`) USING BTREE
    10. ) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8 COMMENT='锁定中的方法';
  10. 获取锁

    1. select id, method_name, state,version from method_lock where state=1 and method_name='methodName';
  11. 占有锁

    1. update t_resoure set state=2, version=2, update_time=now() where method_name='methodName' and state=1 and version=2;

    如果没有更新影响到一行数据,则说明这个资源已经被别人占位了。

    存在问题

    同方案一

    基于缓存redis的实现方式

    redis

    加锁

    加锁实际上就是在redis中,给Key键设置一个值,为避免死锁,并给定一个过期时间。

    1. SET lock_key random_value NX PX 5000

    random_value 是客户端生成的唯一的字符串。
    NX 代表只在键不存在时,才对键进行设置操作。
    PX 5000 设置键的过期时间为5000毫秒。
    这样,如果上面的命令执行成功,则证明客户端获取到了锁。

    1. //id:uuid
    2. public boolean lock(String id){
    3. Jedis jedis = jedisPool.getResource();
    4. Long start = System.currentTimeMillis();
    5. try{
    6. for(;;){
    7. //SET命令返回OK ,则证明获取锁成功
    8. String lock = jedis.set(lock_key, id, params);
    9. if("OK".equals(lock)){
    10. return true;
    11. }
    12. //否则循环等待,在timeout时间内仍未获取到锁,则获取失败
    13. long l = System.currentTimeMillis() - start;
    14. if (l>=timeout) {
    15. return false;
    16. }
    17. try {
    18. Thread.sleep(100);
    19. } catch (InterruptedException e) {
    20. e.printStackTrace();
    21. }
    22. }
    23. }finally {
    24. jedis.close();
    25. }
    26. }

    解锁

    解锁的过程就是将Key键删除。但也不能乱删,不能说客户端1的请求将客户端2的锁给删除掉。这时候random_value的作用就体现出来。
    为了保证解锁操作的原子性,我们用LUA脚本完成这一操作。先判断当前锁的字符串random_value是否与传入的值相等,是的话就删除Key,解锁成功。

    1. public boolean unlock(String id,String lock_key){
    2. Jedis jedis = jedisPool.getResource();
    3. String script =
    4. "if redis.call('get',KEYS[1]) == ARGV[1] then" +
    5. " return redis.call('del',KEYS[1]) " +
    6. "else" +
    7. " return 0 " +
    8. "end";
    9. try {
    10. Object result = jedis.eval(script, Collections.singletonList(lock_key),
    11. Collections.singletonList(id));
    12. if("1".equals(result.toString())){
    13. return true;
    14. }
    15. return false;
    16. }finally {
    17. jedis.close();
    18. }
    19. }

    问题

    不可重入

    redisson

    可重入

    加锁

  12. 通过exists判断,如果锁不存在,则设置值和过期时间,加锁成功

  13. 通过hexists判断,如果锁已存在,并且锁的是当前线程,则证明是重入锁,加锁成功
  14. 如果锁已存在,但锁的不是当前线程,则证明有其他线程持有锁。返回当前锁的过期时间,加锁失败

    解锁

  15. 如果锁已经不存在,通过publish发布锁释放的消息,解锁成功

  16. 如果解锁的线程和当前锁的线程不是同一个,解锁失败,抛出异常
  17. 通过hincrby递减1,先释放一次锁。若剩余次数还大于0,则证明当前锁是重入锁,刷新过期时间;若剩余次数小于0,删除key并发布锁释放的消息,解锁成功

    问题

    在这种场景(主从结构)中存在明显的竞态:
    客户端A从master获取到锁,
    在master将锁同步到slave之前,master宕掉了。
    slave节点被晋级为master节点,
    客户端B取得了同一个资源被客户端A已经获取到的另外一个锁。安全失效

    基于zookeeper实现

    临时顺序节点结合和临时节点和顺序节点的特点:在创建节点时,Zookeeper根据创建的时间顺序给该节点名称进行编号;当创建节点的客户端与zookeeper断开连接后,临时节点会被删除

加锁

首先,在Zookeeper当中创建一个持久节点ParentLock。当第一个客户端想要获得锁时,需要在ParentLock这个节点下面创建一个临时顺序节点 Lock1。
分布式锁 - 图1
之后,Client1查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock1是不是顺序最靠前的一个。如果是第一个节点,则成功获得锁。
分布式锁 - 图2
这时候,如果再有一个客户端 Client2 前来获取锁,则在ParentLock下载再创建一个临时顺序节点Lock2。
分布式锁 - 图3
Client2查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock2是不是顺序最靠前的一个,结果发现节点Lock2并不是最小的。

于是,Client2向排序仅比它靠前的节点Lock1注册Watcher,用于监听Lock1节点是否存在。这意味着Client2抢锁失败,进入了等待状态。
分布式锁 - 图4
这时候,如果又有一个客户端Client3前来获取锁,则在ParentLock下载再创建一个临时顺序节点Lock3。
分布式锁 - 图5
Client3查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock3是不是顺序最靠前的一个,结果同样发现节点Lock3并不是最小的。

于是,Client3向排序仅比它靠前的节点Lock2注册Watcher,用于监听Lock2节点是否存在。这意味着Client3同样抢锁失败,进入了等待状态。
分布式锁 - 图6
这样一来,Client1得到了锁,Client2监听了Lock1,Client3监听了Lock2。这恰恰形成了一个等待队列,很像是Java当中ReentrantLock所依赖的

解锁

释放锁分为两种情况:

  1. 任务完成,客户端显示释放

当任务完成时,Client1会显示调用删除节点Lock1的指令。
分布式锁 - 图7

  1. 任务执行过程中,客户端崩溃

获得锁的Client1在任务执行过程中,如果Duang的一声崩溃,则会断开与Zookeeper服务端的链接。根据临时节点的特性,相关联的节点Lock1会随之自动删除
分布式锁 - 图8
由于Client2一直监听着Lock1的存在状态,当Lock1节点被删除,Client2会立刻收到通知。这时候Client2会再次查询ParentLock下面的所有节点,确认自己创建的节点Lock2是不是目前最小的节点。如果是最小,则Client2顺理成章获得了锁。
分布式锁 - 图9
同理,如果Client2也因为任务完成或者节点崩溃而删除了节点Lock2,那么Client3就会接到通知。
分布式锁 - 图10
最终,Client3成功得到了锁。

方案

可以直接使用zookeeper第三方库Curator客户端,这个客户端中封装了一个可重入的锁服务。
https://github.com/apache/curator/

问题

  1. 性能上可能并没有缓存服务那么高。因为每次在创建锁和释放锁的过程中,都要动态创建、销毁瞬时节点来实现锁功能。ZK中创建和删除节点只能通过Leader服务器来执行,然后将数据同不到所有的Follower机器上。<br /> 其实,使用Zookeeper也有可能带来并发问题,只是并不常见而已。考虑这样的情况,由于网络抖动,客户端可ZK集群的session连接断了,那么zk以为客户端挂了,就会删除临时节点,这时候其他客户端就可以获取到分布式锁了。就可能产生并发问题。这个问题不常见是因为zk有重试机制,一旦zk集群检测不到客户端的心跳,就会重试,Curator客户端支持多种重试策略。多次重试之后还不行的话才会删除临时节点。(所以,选择一个合适的重试策略也比较重要,要在锁的粒度和并发之间找一个平衡。)<br /> 因为需要频繁的创建和删除节点,性能上不如Redis方式。<br />[

](https://blog.csdn.net/wuzhiwei549/article/details/80692278)