1、锁的基础概念

1.1 线程安全

当一个线程访问数据的时候,其他的线程不能对其进行访问,直到该线程访问完毕。简单来讲就是在同一时刻,对同一个数据操作的线程只有一个。而线程不安全,则是在同一时刻可以有多个线程对该数据进行访问,从而得不到预期的结果。

注:即线程内操作了一个线程外的非线程安全变量,这个时候一定要考虑线程安全和同步

1.2 检测线程安全

image.png

1.3 锁的作用

锁是保证线程安全的同步工具,每一个线程在访问数据前,要先获取 acquire 锁,访问结束之后释放 release 锁。如果锁已经被占用,其它试图获取锁的线程会等待或休眠,直到锁重新可用。

为什么要有锁呢?在多线程编程场景中,多个线程同时访问同一个共享数据,可能会出现数据竞争 data race,容易引发数据错乱等问题。这时候就需要用一种同步机制来保证数据安全,锁就是最常见的同步工具。

注:不要将过多的其他操作代码放到锁里面,否则一个线程执行的时候另一个线程就一直在等待,就无法发挥多线程的作用了。

1.4 有哪些锁

在iOS中锁的基本种类只有两种:互斥锁、自旋锁,其他的比如 条件锁、递归锁 等等这些都是上层的封装和实现。

image.png

1.5 互斥锁

互斥锁:防止两条线程同时对同一公共资源(比如全局变量)进行读写的机制。当获取锁操作失败时,线程会进入睡眠,等待锁释放时被唤醒。

可分为以下两种:

  • 递归锁:可重入锁,同一个线程在锁释放前可再次获取锁,即可以递归调用。
  • 非递归锁:不可重入,必须等锁释放后才能再次获取锁。

1.6 自旋锁

自旋锁:线程反复检查锁变量是否可⽤。由于线程在这⼀过程中保持执⾏, 因此是⼀种忙等待。⼀旦获取了⾃旋锁,线程会⼀直保持该锁,直⾄显式释放⾃旋锁。

⾃旋锁 避免了进程上下⽂的调度开销,因此对于线程只会阻塞很短时间的场合是有效的。

1.7 互斥锁和自旋锁的区别

  • 互斥锁 在线程获取锁但没有获取到时,线程会进入休眠状态,等锁被释放时线程会被唤醒;
  • 自旋锁 的线程则会一直处于等待状态(忙等待)不会进入休眠——因此效率高。

2、@synchronized 分析

synchronizedobjc 中提供的同步锁,支持递归。

  1. @synchronized(self) {
  2. // do something
  3. }

关于 synchronized,我们很多人都有一些以下的疑问,比如:

synchronized 对 obj 做了哪些操作? synchronized 的 obj 为 nil 会造成什么后果? synchronized 和 pthread_mutex 有什么关系? synchronized 和 objc_sync 有什么关系?

想要弄清楚这些问题,还得探索 synchronized 的底层实现,接下来我们来分析具体的实现。

2.1 准备阶段

我们分析 synchronized 的底层实现,首先要搞明白,我们从哪里开始着手,然后是想要探索什么内容,带着这两个问题,我们才开始分析。可以从以下两个方面分析

汇编方式

首先通过汇编来分析下 synchronized 都做了什么,先写一段测试代码:

image.png

然后执行 Xcode 的查看汇编指令,得到以下汇编代码。

image.png

我们发现,本质上还是调用了 _objc_sync_enter_objc_sync_exit

clang方式

当然我们也可以用 clang 来编译当前文件。

  1. clang -x objective-c -rewrite-objc main.m

打开编译后的 main.cpp 文件,找到以下 c++ 的代码。

image.png

可以看到,和汇编的分析结果相似,synchronized 调用了 try catch,内部调用了 objc_sync_enterobjc_sync_exit,那么这两个函数属于哪个库,然后又是如何实现的呢?

我们可以给 objc_sync_enter 下一个符号断点

image.png

断住之后,我们可以看到是隶属于 libobjc.A.dylib,查看 objc4 源码,在 objc-sync.mm 文件中,找到了 objc_sync_enter 的实现。

2.2 源码分析

2.2.1 objc_sync_enter

  1. int objc_sync_enter(id obj)
  2. {
  3. int result = OBJC_SYNC_SUCCESS;
  4. if (obj) {
  5. SyncData* data = id2data(obj, ACQUIRE);
  6. ASSERT(data);
  7. data->mutex.lock();
  8. } else {
  9. // @synchronized(nil) does nothing
  10. if (DebugNilSync) {
  11. _objc_inform("NIL SYNC DEBUG: @synchronized(nil); set a breakpoint on objc_sync_nil to debug");
  12. }
  13. objc_sync_nil();
  14. }
  15. return result;
  16. }

这段源码 + 注释,很清楚描述了这个函数的作用:

  • 在 obj 上开始同步锁。
  • 如果需要,初始化递归互斥锁(recursive mutex),并关联 obj。
  • 如果 obj 为 nil,加锁不会成功。

2.2.2 objc_sync_exit

同样,在 objc-sync.mm 文件中,找到了 objc_sync_exit 的实现。

  1. int objc_sync_exit(id obj)
  2. {
  3. int result = OBJC_SYNC_SUCCESS;
  4. if (obj) {
  5. SyncData* data = id2data(obj, RELEASE);
  6. if (!data) {
  7. result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
  8. } else {
  9. bool okay = data->mutex.tryUnlock();
  10. if (!okay) {
  11. result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
  12. }
  13. }
  14. } else {
  15. // @synchronized(nil) does nothing
  16. }
  17. return result;
  18. }

2.3 SyncData 的实现

我们再来看看 objc_sync_enter 是如何加锁的?

  1. // 获取 obj 关联的同步数据
  2. SyncData* data = id2data(obj, ACQUIRE);
  3. // 加锁
  4. data->mutex.lock();

SyncData 又是什么呢?

  1. typedef struct alignas(CacheLineSize) SyncData {
  2. // 下一条同步数据
  3. struct SyncData* nextData;
  4. // 锁的对象
  5. DisguisedPtr<objc_object> object;
  6. // 等待的线程数量
  7. int32_t threadCount; // number of THREADS using this block
  8. // 递归互斥锁
  9. recursive_mutex_t mutex;
  10. } SyncData;
  11. typedef struct {
  12. SyncData *data;
  13. unsigned int lockCount; // number of times THIS THREAD locked this block
  14. } SyncCacheItem;
  15. typedef struct SyncCache {
  16. unsigned int allocated;
  17. unsigned int used;
  18. SyncCacheItem list[0];
  19. } SyncCache;

SyncData 是一个结构体,类似链表。

  • nextData:SyncData 的指针节点,指向下一条数据
  • object:锁住的对象
  • threadCount:等待的线程数量
  • mutex:使用的递归互斥锁

recursive_mutex_t

recursive_mutex_t 是一个递归互斥锁,也是基于 pthread_mutex_t 的封装。可以在 objc-os.h 找到以下代码:

  1. using recursive_mutex_t = recursive_mutex_tt<LOCKDEBUG>;
  2. class recursive_mutex_tt : nocopy_t {
  3. os_unfair_recursive_lock mLock;
  4. public:
  5. constexpr recursive_mutex_tt() : mLock(OS_UNFAIR_RECURSIVE_LOCK_INIT) {
  6. lockdebug_remember_recursive_mutex(this);
  7. }
  8. constexpr recursive_mutex_tt(const fork_unsafe_lock_t unsafe)
  9. : mLock(OS_UNFAIR_RECURSIVE_LOCK_INIT)
  10. { }
  11. void lock()
  12. {
  13. lockdebug_recursive_mutex_lock(this);
  14. os_unfair_recursive_lock_lock(&mLock);
  15. }
  16. void unlock()
  17. {
  18. lockdebug_recursive_mutex_unlock(this);
  19. os_unfair_recursive_lock_unlock(&mLock);
  20. }
  21. void forceReset()
  22. {
  23. lockdebug_recursive_mutex_unlock(this);
  24. bzero(&mLock, sizeof(mLock));
  25. mLock = os_unfair_recursive_lock OS_UNFAIR_RECURSIVE_LOCK_INIT;
  26. }
  27. bool tryLock()
  28. {
  29. if (os_unfair_recursive_lock_trylock(&mLock)) {
  30. lockdebug_recursive_mutex_lock(this);
  31. return true;
  32. }
  33. return false;
  34. }
  35. bool tryUnlock()
  36. {
  37. if (os_unfair_recursive_lock_tryunlock4objc(&mLock)) {
  38. lockdebug_recursive_mutex_unlock(this);
  39. return true;
  40. }
  41. return false;
  42. }
  43. void assertLocked() {
  44. lockdebug_recursive_mutex_assert_locked(this);
  45. }
  46. void assertUnlocked() {
  47. lockdebug_recursive_mutex_assert_unlocked(this);
  48. }
  49. };

可以看到是基于 os_unfair_recursive_lock 的封装,这里就不继续往下深究了,具体可以查看官方文档的使用介绍 os_unfair_lock_lock

其实到这里,synchronized 的原理就很清晰了。

  • 内部为每一个 obj 分配一把 recursive_mutex 递归互斥锁。
  • 针对每个 obj,通过这个 recursive_mutex 递归互斥锁进行加锁、解锁。

接下来我们来看看内部是如何管理 objrecursive_mutex 的。

2.3.1 id2data 流程分析

id2data 这一步管理了 obj 和 SyncData 的映射关系,根据 obj 获取SyncData,主要分为五步。

  • 1. tls

第一步,从当前线程的 Thread Local Storage 快速缓存中获取 SyncData,只适合一个线程一应一个 SyncData

  1. static SyncData* id2data(id object, enum usage why)
  2. {
  3. spinlock_t *lockp = &LOCK_FOR_OBJ(object);
  4. SyncData **listp = &LIST_FOR_OBJ(object);
  5. SyncData* result = NULL;
  6. // 1.先从线程 Thread Local Storage 快速缓存中获取 SyncData
  7. #if SUPPORT_DIRECT_THREAD_KEYS
  8. // Check per-thread single-entry fast cache for matching object
  9. bool fastCacheOccupied = NO;
  10. SyncData *data = (SyncData *)tls_get_direct(SYNC_DATA_DIRECT_KEY);
  11. if (data) {
  12. fastCacheOccupied = YES;
  13. if (data->object == object) {
  14. // Found a match in fast cache.
  15. uintptr_t lockCount;
  16. result = data;
  17. // 获取当前线程 tls 缓存里的 SyncData 加锁次数
  18. lockCount = (uintptr_t)tls_get_direct(SYNC_COUNT_DIRECT_KEY);
  19. if (result->threadCount <= 0 || lockCount <= 0) {
  20. _objc_fatal("id2data fastcache is buggy");
  21. }
  22. // 判断当前操作类型
  23. switch(why) {
  24. // 获取锁
  25. case ACQUIRE: {
  26. // 加锁一次,更新当前线程 tls 缓存
  27. lockCount++;
  28. tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);
  29. break;
  30. }
  31. // 释放锁
  32. case RELEASE:
  33. // 释放锁一次,更新当前线程 tls 缓存
  34. lockCount--;
  35. tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);
  36. if (lockCount == 0) {
  37. // remove from fast cache
  38. // 从线程缓存中移除
  39. tls_set_direct(SYNC_DATA_DIRECT_KEY, NULL);
  40. // atomic because may collide with concurrent ACQUIRE
  41. OSAtomicDecrement32Barrier(&result->threadCount);
  42. }
  43. break;
  44. case CHECK:
  45. // do nothing
  46. break;
  47. }
  48. return result;
  49. }
  50. }
  51. #endif
  52. // 省略部分代码.....
  • 2. fetch_cache

第二步,从当前线程缓存中获取 SyncCache 结构体,包含了 SyncCacheItem 数组,一个线程可以对应多个 SyncCacheItem 同步对象,也就是一个线程可以处理多个SyncData。

  1. // Check per-thread cache of already-owned locks for matching object
  2. // 从当前线程缓存中获取 SyncCache
  3. SyncCache *cache = fetch_cache(NO);
  4. if (cache) {
  5. unsigned int i;
  6. for (i = 0; i < cache->used; i++) {
  7. // 编译 SyncCache、SyncCacheItem 列表。
  8. SyncCacheItem *item = &cache->list[i];
  9. if (item->data->object != object) continue;
  10. // Found a match.
  11. // 找到匹配当前 obj 的 SyncCacheItem
  12. result = item->data;
  13. if (result->threadCount <= 0 || item->lockCount <= 0) {
  14. _objc_fatal("id2data cache is buggy");
  15. }
  16. // 判断操作类型
  17. switch(why) {
  18. // 获取锁
  19. case ACQUIRE:
  20. // 加锁一次
  21. item->lockCount++;
  22. break;
  23. // 释放锁
  24. case RELEASE:
  25. // 释放锁一次
  26. item->lockCount--;
  27. if (item->lockCount == 0) {
  28. // remove from per-thread cache
  29. cache->list[i] = cache->list[--cache->used];
  30. // atomic because may collide with concurrent ACQUIRE
  31. OSAtomicDecrement32Barrier(&result->threadCount);
  32. }
  33. break;
  34. case CHECK:
  35. // do nothing
  36. break;
  37. }
  38. return result;
  39. }
  40. }
  • 3. LIST_FOR_OBJ

第三步,通过 obj 在全局哈希表 sDataLists 中查找 SyncData 列表,因为sDataLists 是全局共享的,所以这里使用了 spinlock_t 加锁。

  1. // Thread cache didn't find anything.
  2. // Walk in-use list looking for matching object
  3. // Spinlock prevents multiple threads from creating multiple
  4. // locks for the same new object.
  5. // We could keep the nodes in some hash table if we find that there are
  6. // more than 20 or so distinct locks active, but we don't do that now.
  7. // 先加锁
  8. lockp->lock();
  9. {
  10. SyncData* p;
  11. SyncData* firstUnused = NULL;
  12. // 遍历 SyncData 列表
  13. for (p = *listp; p != NULL; p = p->nextData) {
  14. if ( p->object == object ) {
  15. result = p;
  16. // atomic because may collide with concurrent RELEASE
  17. OSAtomicIncrement32Barrier(&result->threadCount);
  18. goto done;
  19. }
  20. // 标记未使用的 SyncData
  21. if ( (firstUnused == NULL) && (p->threadCount == 0) )
  22. firstUnused = p;
  23. }
  24. // no SyncData currently associated with object
  25. // 没有找到 SyncData
  26. if ( (why == RELEASE) || (why == CHECK) )
  27. goto done;
  28. // an unused one was found, use it
  29. // 找到 SyncData,且未使用,重复利用
  30. if ( firstUnused != NULL ) {
  31. result = firstUnused;
  32. result->object = (objc_object *)object;
  33. result->threadCount = 1;
  34. goto done;
  35. }
  36. }
  • 4. New SyncData

第四步,如果上面三步都没有找到 SyncData,那么需要新建 SyncData

  1. // Allocate a new SyncData and add to list.
  2. // XXX allocating memory with a global lock held is bad practice,
  3. // might be worth releasing the lock, allocating, and searching again.
  4. // But since we never free these guys we won't be stuck in allocation very often.
  5. posix_memalign((void **)&result, alignof(SyncData), sizeof(SyncData));
  6. result->object = (objc_object *)object;
  7. result->threadCount = 1;
  8. //new 递归互斥锁
  9. new (&result->mutex) recursive_mutex_t(fork_unsafe_lock);
  10. result->nextData = *listp;
  11. *listp = result;
  • 5. Save SyncData

第五步,保存 SyncData 对象。

  1. done:
  2. // 释放 sDataLists 的锁
  3. lockp->unlock();
  4. if (result) {
  5. // Only new ACQUIRE should get here.
  6. // All RELEASE and CHECK and recursive ACQUIRE are
  7. // handled by the per-thread caches above.
  8. if (why == RELEASE) {
  9. // Probably some thread is incorrectly exiting
  10. // while the object is held by another thread.
  11. return nil;
  12. }
  13. if (why != ACQUIRE) _objc_fatal("id2data is buggy");
  14. if (result->object != object) _objc_fatal("id2data is buggy");
  15. // 线程 tls fast cache 模式,缓存 SyncData
  16. #if SUPPORT_DIRECT_THREAD_KEYS
  17. if (!fastCacheOccupied) {
  18. // Save in fast thread cache
  19. tls_set_direct(SYNC_DATA_DIRECT_KEY, result);
  20. tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)1);
  21. } else
  22. #endif
  23. // SyncCache 模式,加入到 SyncCacheItem 数组
  24. {
  25. // Save in thread cache
  26. if (!cache) cache = fetch_cache(YES);
  27. cache->list[cache->used].data = result;
  28. cache->list[cache->used].lockCount = 1;
  29. cache->used++;
  30. }
  31. }
  32. return result;

至此,id2data 的功能已经大致清晰。利用 SyncData 管理 obj、线程、递归互斥锁之间的关系。

  • 1. 先从当前线程的 tls fast cache 快速缓存中去获取单个 SyncData 对象。
  • 2. 如果 1 中 SyncData未找到,再从当前线程的缓存中获取 SyncCache,遍历 SyncCacheItem 数组,找到对应的 SyncData
  • 3. 如果 2 中 SyncData 未找到,再从全局的哈希表 sDataLists 中查找 SyncCache,查看其它线程是否已经占用过 obj。
  • 4. 如果还是没有找到 SyncData,则新建一个 SyncData 对象。
  • 5. 把新建的 SyncData 加入到当前线程缓存里,或者全局的哈希表 sDataLists 中。

2.4 回顾

相信看到这里,开头的这些问题,我们应该都知道答案了吧。

问: synchronized 对 obj 做了哪些操作? 答: 会为 obj 生成递归自旋锁,并建立关联,生成 SyncData,存储在当前线程的缓存里或者全局哈希表里。 问: synchronized 的 obj 为 nil 会造成什么后果? 答: 加锁操作无效。 问: synchronized 和 pthread_mutex 有什么关系? 答: SyncData 里的递归互斥锁,使用 pthread_mutex 实现的。 问: synchronized 和 objc_sync 有什么关系? 答: synchronized 底层调用了 objc_sync_enter() 和 objc_sync_exit()。

3、参考资料