Dubbo 提供了4种负载均衡实现,分别是基于权重随机算法的 RandomLoadBalance、基于最少活跃调用数算法的 LeastActiveLoadBalance、基于 hash 一致性的 ConsistentHashLoadBalance,以及基于加权轮询算法的 RoundRobinLoadBalance。
AbstractLoadBalance
在 Dubbo 中,所有负载均衡实现类均继承自 AbstractLoadBalance,该类实现了 LoadBalance 接口,并封装了一些公共的逻辑。
public abstract class AbstractLoadBalance implements LoadBalance {/** 负载均衡的入口方法 select。* (模板方法设计模式)*/@Overridepublic <T> Invoker<T> select(List<Invoker<T>> invokers, URL url, Invocation invocation) {if (invokers == null || invokers.isEmpty())return null;// 如果 invokers 列表中仅有一个 Invoker,直接返回即可,无需进行负载均衡if (invokers.size() == 1)return invokers.get(0);// 调用 doSelect 方法进行负载均衡,该方法为抽象方法,由子类实现return doSelect(invokers, url, invocation);}/* 具体的负载均衡算法,由子类实现。*/protected abstract <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation);/** 权重的计算过程,该过程主要用于保证当服务运行时长小于服务预热时间时,对服务进行降权,* 避免让服务在启动之初就处于高负载状态。* 服务预热是一个优化手段,与此类似的还有 JVM 预热。主要目的是让服务启动后“低功率”运行一段时间,* 使其效率慢慢提升至最佳状态。*/protected int getWeight(Invoker<?> invoker, Invocation invocation) {// 从 url 中获取权重 weight 配置值int weight = invoker.getUrl().getMethodParameter(invocation.getMethodName(), Constants.WEIGHT_KEY, Constants.DEFAULT_WEIGHT);if (weight > 0) {// 获取服务提供者启动时间戳long timestamp = invoker.getUrl().getParameter(Constants.REMOTE_TIMESTAMP_KEY, 0L);if (timestamp > 0L) {// 计算服务提供者运行时长int uptime = (int) (System.currentTimeMillis() - timestamp);// 获取服务预热时间,默认为10分钟int warmup = invoker.getUrl().getParameter(Constants.WARMUP_KEY, Constants.DEFAULT_WARMUP);// 如果服务运行时间小于预热时间,则重新计算服务权重,即降权if (uptime > 0 && uptime < warmup) {// 重新计算服务权重weight = calculateWarmupWeight(uptime, warmup, weight);}}}return weight;}static int calculateWarmupWeight(int uptime, int warmup, int weight) {// 计算权重,下面代码逻辑上形似于 (uptime / warmup) * weight。// 随着服务运行时间 uptime 增大,权重计算值 ww 会慢慢接近配置值 weightint ww = (int) ((float) uptime / ((float) warmup / (float) weight));return ww < 1 ? 1 : (ww > weight ? weight : ww);}}
RandomLoadBalance
RandomLoadBalance 是加权随机算法的具体实现,每个服务器被选中的次数比例接近其权重比例。
RandomLoadBalance 是一个简单,高效的负载均衡实现,因此 Dubbo 选择它作为缺省实现。
RandomLoadBalance 的算法思想比较简单,在经过多次请求后,能够将调用请求按照权重值进行“均匀”分配。当然 RandomLoadBalance 也存在一定的缺点,当调用次数比较少时,Random 产生的随机数可能会比较集中,此时多数请求会落到同一台服务器上。
算法思想
假设有一组服务器 servers = [A, B, C],他们对应的权重为 weights = [5, 3, 2],权重总和为10。现在把这些权重值平铺在一维坐标值上,[0, 5) 区间属于服务器 A,[5, 8) 区间属于服务器 B,[8, 10) 区间属于服务器 C。接下来通过随机数生成器生成一个范围在 [0, 10) 之间的随机数,然后计算这个随机数会落到哪个区间上。
算法源码
public class RandomLoadBalance extends AbstractLoadBalance {public static final String NAME = "random";private final Random random = new Random();@Overrideprotected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {// 服务提供者数量int length = invokers.size();// 总权重int totalWeight = 0;// 所有服务提供者权重值是否相同boolean sameWeight = true;// 下面这个循环有两个作用,第一是计算总权重 totalWeight,// 第二是检测每个服务提供者的权重是否相同for (int i = 0; i < length; i++) {int weight = getWeight(invokers.get(i), invocation);// 累加权重totalWeight += weight;// 检测当前服务提供者的权重与上一个服务提供者的权重是否相同,// 不相同的话,则将 sameWeight 置为 false。if (sameWeight && i > 0&& weight != getWeight(invokers.get(i - 1), invocation)) {sameWeight = false;}}// 下面的 if 分支主要用于获取随机数,并计算随机数落在哪个区间上if (totalWeight > 0 && !sameWeight) {// 随机获取一个 [0, totalWeight) 区间内的数字int offset = random.nextInt(totalWeight);// 循环让 offset 数减去服务提供者权重值,当 offset 小于0时,返回相应的 Invoker。// 举例说明一下,我们有 servers = [A, B, C],weights = [5, 3, 2],offset = 7。// 第一次循环,offset - 5 = 2 > 0,即 offset > 5,// 表明其不会落在服务器 A 对应的区间上。// 第二次循环,offset - 3 = -1 < 0,即 5 < offset < 8,// 表明其会落在服务器 B 对应的区间上for (int i = 0; i < length; i++) {// 让随机值 offset 减去权重值offset -= getWeight(invokers.get(i), invocation);if (offset < 0) {// 返回相应的 Invokerreturn invokers.get(i);}}}// 如果所有服务提供者权重值相同,此时直接随机返回一个即可return invokers.get(random.nextInt(length));}}
LeastActiveLoadBalance
LeastActiveLoadBalance 翻译过来是最小活跃数负载均衡。活跃调用数越小,表明该服务提供者效率越高,单位时间内可处理更多的请求。此时应优先将请求分配给该服务提供者。
活跃数:服务提供者当前未完成的请求数。
算法思想
每个服务提供者对应一个活跃数 active。初始情况下,所有服务提供者活跃数均为0。每收到一个请求,活跃数加 1,完成请求后则将活跃数减 1。在服务运行一段时间后,性能好的服务提供者处理请求的速度更快,因此活跃数下降的也越快,此时这样的服务提供者能够优先获取到新的服务请求,这就是最小活跃数负载均衡算法的基本思想。除了最小活跃数,LeastActiveLoadBalance 在实现上还引入了权重值。所以准确的来说,LeastActiveLoadBalance 是基于加权最小活跃数算法实现的。举个例子说明一下,在一个服务提供者集群中,有两个性能优异的服务提供者。某一时刻它们的活跃数相同,此时 Dubbo 会根据它们的权重去分配请求,权重越大,获取到新请求的概率就越大。如果两个服务提供者权重相同,此时随机选择一个即可。
算法源码
public class LeastActiveLoadBalance extends AbstractLoadBalance {
public static final String NAME = "leastactive";
private final Random random = new Random();
@Override
protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {
int length = invokers.size();
// 最小的活跃数
int leastActive = -1;
// 具有相同“最小活跃数”的服务者提供者(以下用 Invoker 代称)数量
int leastCount = 0;
// leastIndexs 用于记录具有相同“最小活跃数”的 Invoker 在 invokers 列表中的下标信息
int[] leastIndexs = new int[length];
int totalWeight = 0;
// 第一个最小活跃数的 Invoker 权重值,用于与其他具有相同最小活跃数的 Invoker 的权重进行对比,
// 以检测是否“所有具有相同最小活跃数的 Invoker 的权重”均相等
int firstWeight = 0;
boolean sameWeight = true;
// 遍历 invokers 列表
for (int i = 0; i < length; i++) {
Invoker<T> invoker = invokers.get(i);
// 获取 Invoker 对应的活跃数
int active = RpcStatus.getStatus(invoker.getUrl(), invocation.getMethodName()).getActive();
// 获取权重 - ⭐️
int weight = invoker.getUrl().getMethodParameter(invocation.getMethodName(), Constants.WEIGHT_KEY, Constants.DEFAULT_WEIGHT);
// 发现更小的活跃数,重新开始
if (leastActive == -1 || active < leastActive) {
// 使用当前活跃数 active 更新最小活跃数 leastActive
leastActive = active;
// 更新 leastCount 为 1
leastCount = 1;
// 记录当前下标值到 leastIndexs 中
leastIndexs[0] = i;
totalWeight = weight;
firstWeight = weight;
sameWeight = true;
// 当前 Invoker 的活跃数 active 与最小活跃数 leastActive 相同
} else if (active == leastActive) {
// 在 leastIndexs 中记录下当前 Invoker 在 invokers 集合中的下标
leastIndexs[leastCount++] = i;
// 累加权重
totalWeight += weight;
// 检测当前 Invoker 的权重与 firstWeight 是否相等,
// 不相等则将 sameWeight 置为 false
if (sameWeight && i > 0
&& weight != firstWeight) {
sameWeight = false;
}
}
}
// 当只有一个 Invoker 具有最小活跃数,此时直接返回该 Invoker 即可
if (leastCount == 1) {
return invokers.get(leastIndexs[0]);
}
// 有多个 Invoker 具有相同的最小活跃数,但它们之间的权重不同
if (!sameWeight && totalWeight > 0) {
// 随机生成一个 [0, totalWeight) 之间的数字
int offsetWeight = random.nextInt(totalWeight);
// 循环让随机数减去具有最小活跃数的 Invoker 的权重值,
// 当 offset 小于等于0时,返回相应的 Invoker
for (int i = 0; i < leastCount; i++) {
int leastIndex = leastIndexs[i];
// 获取权重值,并让随机数减去权重值 - ⭐️
offsetWeight -= getWeight(invokers.get(leastIndex), invocation);
if (offsetWeight <= 0)
return invokers.get(leastIndex);
}
}
// 如果权重相同或权重为0时,随机返回一个 Invoker
return invokers.get(leastIndexs[random.nextInt(leastCount)]);
}
}
以上代码逻辑如下:
- 遍历 invokers 列表,寻找活跃数最小的 Invoker。
- 如果有多个 Invoker 具有相同的最小活跃数,此时记录下这些 Invoker 在 invokers 集合中的下标,并累加它们的权重,比较它们的权重值是否相等。
- 如果只有一个 Invoker 具有最小的活跃数,此时直接返回该 Invoker 即可。
- 如果有多个 Invoker 具有最小活跃数,且它们的权重不相等,此时处理方式和 RandomLoadBalance 一致。
- 如果有多个 Invoker 具有最小活跃数,但它们的权重相等,此时随机返回一个即可。
ConsistentHashLoadBalance
算法思想
一致性 hash 算法由麻省理工学院的 Karger 及其合作者于1997年提出的,算法提出之初是用于大规模缓存系统的负载均衡。它的工作过程是这样的,首先根据 ip 或者其他的信息为缓存节点生成一个 hash,并将这个 hash 投射到 [0, 232- 1] 的圆环上。当有查询或写入请求时,则为缓存项的 key 生成一个 hash 值。然后查找第一个大于或等于该 hash 值的缓存节点,并到这个节点中查询或写入缓存项。如果当前节点挂了,则在下一次查询或写入缓存时,为缓存项查找另一个大于其 hash 值的缓存节点即可。大致效果如下图所示,每个缓存节点在圆环上占据一个位置。如果缓存项的 key 的 hash 值小于缓存节点 hash 值,则到该缓存节点中存储或读取缓存项。比如下面绿色点对应的缓存项将会被存储到 cache-2 节点中。由于 cache-3 挂了,原本应该存到该节点中的缓存项最终会存储到 cache-4 节点中。
一致性 hash 算法存在数据倾斜的问题。 数据倾斜是指,由于节点不够分散,导致大量请求落到了同一个节点上,而其他节点只会接收到了少量请求的情况。 例如:由于 Invoker-1 和 Invoker-2 在圆环上分布不均,导致系统中75%的请求都会落到 Invoker-1 上,只有 25% 的请求会落到 Invoker-2 上。

在 Dubbo 中,将以上的缓存节点替换成服务提供者,并且 Dubbo 为了解决数据倾斜问题引入了虚拟节点,让 Invoker 在圆环上分散开来,通过虚拟节点均衡各个节点的请求量。每个虚拟节点都会指向某一个实际的服务提供者,当请求落到该虚拟节点时,实际指向的是该虚拟节点对应的实际服务提供者。
这里相同颜色的节点均属于同一个服务提供者,比如 Invoker1-1,Invoker1-2,……, Invoker1-160。
算法源码
doSelectdoSelect 方法主要做了一些前置工作,比如检测 invokers 列表是不是变动过,以及创建 ConsistentHashSelector。接下来开始调用 ConsistentHashSelector 的 select 方法执行负载均衡逻辑。
public class ConsistentHashLoadBalance extends AbstractLoadBalance { /** * 每个 Method 独立的 selector * Service Key = 接口名称 + [group + "/"] + [":" + version] * key = Service Key + "." + 方法名 * value:ConsistentHashSelector,里面存储了构建好的 hash 环 */ private final ConcurrentMap<String, ConsistentHashSelector<?>> selectors = new ConcurrentHashMap<String, ConsistentHashSelector<?>>(); /* * doSelect 方法主要做了一些前置工作,比如检测 invokers 列表是不是变动过, * 以及创建 ConsistentHashSelector。 */ @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { String methodName = RpcUtils.getMethodName(invocation); String key = invokers.get(0).getUrl().getServiceKey() + "." + methodName; // 获取 invokers 原始的 hashcode int identityHashCode = System.identityHashCode(invokers); ConsistentHashSelector<T> selector = (ConsistentHashSelector<T>) selectors.get(key); // 如果是第一次调用此时 selector == null 条件成立 // 如果 invokers 是一个新的 List 对象, // 意味着服务提供者数量发生了变化,可能新增也可能减少了。 // 此时 selector.identityHashCode != identityHashCode 条件成立 if (selector == null || selector.identityHashCode!=identityHashCode) { // 创建新的 ConsistentHashSelector selectors.put(key, new ConsistentHashSelector<T>(invokers, methodName, identityHashCode)); selector = (ConsistentHashSelector<T>) selectors.get(key); } // 调用 ConsistentHashSelector 的 select 方法选择 Invoker return selector.select(invocation); } }ConsistentHashSelector 的初始化过程ConsistentHashSelector 的构造方法执行了一系列的初始化逻辑,比如从配置中获取虚拟节点数以及参与 hash 计算的参数下标,默认情况下只使用第一个参数进行 hash。需要特别说明的是,ConsistentHashLoadBalance 的负载均衡逻辑只受参数值影响,具有相同参数值的请求将会被分配给同一个服务提供者。ConsistentHashLoadBalance 不关心权重,因此使用时需要注意一下。
在获取虚拟节点数和参数下标配置后,接下来要做的事情是计算虚拟节点 hash 值,并将虚拟节点存储到 TreeMap 中。到此,ConsistentHashSelector 初始化工作就完成了。/* * 一致性 hash 选择器 ConsistentHashSelector 的初始化过程: * 1. 获取虚拟节点数,默认为 160 * 2. 参与 hash 计算的参数下标数组,默认只使用第一个参数进行 hash * 3. 对节点的 address + index 取 MD5,然后进行 hash 计算,获取服务提供者的 hash 值 * 4. 构建服务提供者 hash 环(存入 TreeMap) */ private static final class ConsistentHashSelector<T> { /* * 使用 TreeMap 存储 Invoker 虚拟节点。 * key:节点的 address + index 取 MD5,然后进行 hash * value:服务提供者 */ private final TreeMap<Long, Invoker<T>> virtualInvokers; // 虚拟节点数 private final int replicaNumber; // selector 的 hashCode private final int identityHashCode; // 请求中的参数下标。 // 需要对请求中对应下标的参数进行哈希计算 private final int[] argumentIndex; ConsistentHashSelector(List<Invoker<T>> invokers, String methodName, int identityHashCode) { this.virtualInvokers = new TreeMap<Long, Invoker<T>>(); this.identityHashCode = identityHashCode; URL url = invokers.get(0).getUrl(); // 获取虚拟节点数,默认为160 this.replicaNumber = url.getMethodParameter(methodName, "hash.nodes", 160); // 获取参与 hash 计算的参数下标值,默认对第一个参数进行 hash 运算 String[] index = Constants.COMMA_SPLIT_PATTERN.split(url.getMethodParameter(methodName, "hash.arguments", "0")); argumentIndex = new int[index.length]; for (int i = 0; i < index.length; i++) { argumentIndex[i] = Integer.parseInt(index[i]); } // 对服务提供者进行循环: // 对每个服务提供者再进行多次 hash 计算,然后加入 hash 环,形成虚拟 hash 环 for (Invoker<T> invoker : invokers) { String address = invoker.getUrl().getAddress(); for (int i = 0; i < replicaNumber / 4; i++) { // 对 address + i 进行 md5 运算,得到一个长度为16的字节数组 byte[] digest = md5(address + i); // 对 digest 部分字节进行4次 hash 运算,得到四个不同的 long 型正整数 for (int h = 0; h < 4; h++) { // h = 0 时,取 digest 中下标为 0 ~ 3 的4个字节进行位运算 // h = 1 时,取 digest 中下标为 4 ~ 7 的4个字节进行位运算 // h = 2, h = 3 时过程同上 long m = hash(digest, h); // 将 hash 到 invoker 的映射关系存储到 virtualInvokers 中, // virtualInvokers 需要提供高效的查询操作,因此选用 TreeMap virtualInvokers.put(m, invoker); } } } } }select 过程选择的过程相对比较简单了。首先是对参数进行 md5 以及 hash 运算,得到一个 hash 值。然后再拿这个值到 TreeMap 中查找目标 Invoker 即可。
public Invoker<T> select(Invocation invocation) { // 将参数转为 key:参数拼接成字符串 -> key String key = toKey(invocation.getArguments()); // 对参数 key 进行 md5 运算 byte[] digest = md5(key); // 取 digest 数组的前四个字节进行 hash 运算,再将 hash 值传给 selectForKey 方法, // 寻找合适的 Invoker return selectForKey(hash(digest, 0)); } private Invoker<T> selectForKey(long hash) { // 到 TreeMap 中查找第一个节点值大于或等于当前 hash 的 Invoker // tailMap:获取一个子集。其所有对象的 key 的值大于[等于] fromKey Map.Entry<Long, Invoker<T>> entry = virtualInvokers.tailMap(hash, true).firstEntry(); // 如果 hash 大于 Invoker 在圆环上最大的位置,此时 entry = null, // 需要将 TreeMap 的头节点赋值给 entry if (entry == null) { entry = virtualInvokers.firstEntry(); } // 返回 Invoker return entry.getValue(); }RoundRobinLoadBalance
RoundRobinLoadBalance,即加权轮询负载均衡。
算法思想
所谓轮询是指将请求轮流分配给每台服务器。轮询是一种无状态负载均衡算法,实现简单,适用于每台服务器性能相近的场景下。但现实情况下,我们并不能保证每台服务器性能均相近。如果我们将等量的请求分配给性能较差的服务器,这显然是不合理的。因此,这个时候我们需要对轮询过程进行加权,以调控每台服务器的负载。经过加权后,每台服务器能够得到的请求数比例,接近或等于他们的权重比。比如服务器 A、B、C 权重比为 5:2:1。那么在8次请求中,服务器 A 将收到其中的5次请求,服务器 B 会收到其中的2次请求,服务器 C 则收到其中的1次请求,以上就是加权轮询的算法思想。
算法源码
public class RoundRobinLoadBalance extends AbstractLoadBalance { public static final String NAME = "roundrobin"; /* * 调用次数 Map: * key:全限定类名 + "." + 方法名,比如 com.xxx.DemoService.sayHello * value:调用次数, */ private final ConcurrentMap<String, AtomicPositiveInteger> sequences = new ConcurrentHashMap<String, AtomicPositiveInteger>(); @Override protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) { // key = 全限定类名 + "." + 方法名,比如 com.xxx.DemoService.sayHello String key = invokers.get(0).getUrl().getServiceKey() + "." + invocation.getMethodName(); int length = invokers.size(); // 最大权重 int maxWeight = 0; // 最小权重:初始值为最大值,作为对比,后面取最小值 int minWeight = Integer.MAX_VALUE; final LinkedHashMap<Invoker<T>, IntegerWrapper> invokerToWeightMap = new LinkedHashMap<Invoker<T>, IntegerWrapper>(); // 权重总和 int weightSum = 0; // 下面这个循环主要用于查找最大和最小权重,计算权重总和等 for (int i = 0; i < length; i++) { int weight = getWeight(invokers.get(i), invocation); // 获取最大和最小权重 maxWeight = Math.max(maxWeight, weight); minWeight = Math.min(minWeight, weight); if (weight > 0) { // 将 weight 封装到 IntegerWrapper 中 invokerToWeightMap.put(invokers.get(i), new IntegerWrapper(weight)); // 累加权重 weightSum += weight; } } // 查找 key 对应的对应 AtomicPositiveInteger 实例,为空则创建。 // 这里可以把 AtomicPositiveInteger 看成一个黑盒,大家只要知道 // AtomicPositiveInteger 用于记录服务的调用编号即可。至于细节, // 大家如果感兴趣,可以自行分析 AtomicPositiveInteger sequence = sequences.get(key); if (sequence == null) { sequences.putIfAbsent(key, new AtomicPositiveInteger()); sequence = sequences.get(key); } // 获取当前的调用编号 int currentSequence = sequence.getAndIncrement(); // 如果最小权重小于最大权重,表明服务提供者之间的权重是不相等的 if (maxWeight > 0 && minWeight < maxWeight) { // 使用调用编号对权重总和进行取余操作 int mod = currentSequence % weightSum; // 进行 maxWeight 次遍历 for (int i = 0; i < maxWeight; i++) { // 遍历 invokerToWeightMap for (Map.Entry<Invoker<T>, IntegerWrapper> each : invokerToWeightMap.entrySet()) { // 获取 Invoker final Invoker<T> k = each.getKey(); // 获取权重包装类 IntegerWrapper final IntegerWrapper v = each.getValue(); // 如果 mod = 0,且权重大于0,此时返回相应的 Invoker ——> 性能问题 if (mod == 0 && v.getValue() > 0) { return k; } // mod != 0,且权重大于0,此时对权重和 mod 分别进行自减操作 if (v.getValue() > 0) { v.decrement(); mod--; } } } } // 服务提供者之间的权重相等,此时通过轮询选择 Invoker return invokers.get(currentSequence % length); } // IntegerWrapper 是一个 int 包装类,主要包含了一个自减方法。 private static final class IntegerWrapper { private int value; public void decrement() { this.value--; } // 省略 getter && setter } }问题出在了 Invoker 的返回时机上,RoundRobinLoadBalance 需要在
mod == 0 && v.getValue() > 0条件成立的情况下才会被返回相应的 Invoker。假如 mod 很大,比如 10000,50000,甚至更大时,doSelect 方法需要进行很多次计算才能将 mod 减为0。由此可知,doSelect 的效率与 mod 有关,时间复杂度为 O(mod)。mod 又受最大权重 maxWeight 的影响,因此当某个服务提供者配置了非常大的权重,此时 RoundRobinLoadBalance 会产生比较严重的性能问题。
