Sentinel简介

Sentinel是⼀个⾯向云原⽣微服务的流量控制、熔断降级组件。
替代Hystrix,针对问题:服务雪崩、服务降级、服务熔断、服务限流

Hystrix:
服务消费者(⾃动投递微服务)—>调⽤服务提供者(简历微服务)
在调⽤⽅引⼊Hystrix—> 单独搞了⼀个Dashboard项⽬—>Turbine
1)⾃⼰搭建监控平台 dashboard
2)没有提供UI界⾯进⾏服务熔断、服务降级等配置(⽽是写代码,⼊侵了我们源程序环境)

Sentinel:
1)独⽴可部署Dashboard/控制台组件
2)减少代码开发,通过UI界⾯配置即可完成细粒度控制(⾃动投递微服务)

image.png
Sentinel 分为两个部分:

  • 核⼼库:(Java 客户端)不依赖任何框架/库,能够运⾏于所有 Java 运⾏时环境,同时对 Dubbo / Spring Cloud 等框架也有较好的⽀持。
  • 控制台:(Dashboard)基于 Spring Boot 开发,打包后可以直接运⾏,不需要额外的 Tomcat 等应⽤容器。

Sentinel 具有以下特征:

  • 丰富的应⽤场景:Sentinel 承接了阿⾥巴巴近 10 年的双⼗⼀⼤促流量的核⼼场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填⾕、集群流量控制、实时熔断下游不可⽤应⽤等。
  • 完备的实时监控:Sentinel 同时提供实时的监控功能。您可以在控制台中看到接⼊应⽤的单台机器秒级数据,甚⾄ 500 台以下规模的集群的汇总运⾏情况。
  • ⼴泛的开源⽣态:Sentinel 提供开箱即⽤的与其它开源框架/库的整合模块,例如与 Spring Cloud、Dubbo的整合。您只需要引⼊相应的依赖并进⾏简单的配置即可快速地接⼊ Sentinel。
  • 完善的 SPI 扩展点:Sentinel 提供简单易⽤、完善的 SPI 扩展接⼝。您可以通过实现扩展接⼝来快速地定制逻辑。例如定制规则管理、适配动态数据源等。

image.png

Sentinel 部署
下载地址:https://github.com/alibaba/Sentinel/releases 我们使⽤v1.7.1
启动:java -jar sentinel-dashboard-1.7.1.jar &
⽤户名/密码:sentinel/sentinel
Sentinel分布式系统的流量防卫兵 - 图3

Sentinel应用

** 服务改造

**
在我们已有的业务场景中,“⾃动投递微服务”调⽤了“简历微服务”,我们在⾃动投递
微服务进⾏的熔断降级等控制,那么接下来我们改造⾃动投递微服务,引⼊Sentinel核⼼包。
pom.xml引⼊依赖

  1. <!--sentinel 核⼼环境 依赖-->
  2. <dependency>
  3. <groupId>com.alibaba.cloud</groupId>
  4. <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
  5. </dependency>

application.yml修改(配置sentinel dashboard,暴露断点依然要有,删除原有hystrix配置,删除原有OpenFeign的降级配置)

  1. server:
  2. port: 8097
  3. spring:
  4. application:
  5. name: lg-service-autodeliver
  6. cloud:
  7. nacos:
  8. discovery:
  9. #集群中各节点新都配置在这(域名-VIP-绑定映射到各个实例的地址信息)
  10. server-addr: 117.50.98.247:8848,117.50.98.247:8849,117.50.98.247:8850
  11. cluster-name: BJ
  12. #命名空间不同 服务不能相互访问
  13. namespace: 24b71e13-699a-4b5f-bf61-9a4a89036494
  14. sentinel:
  15. transport:
  16. # sentinel dashboard/console 地址
  17. dashboard: 127.0.0.1:8080
  18. # sentinel会在该端⼝启动http server,那么这样 的话,控制台定义的⼀些限流等规则才能发送传递过来,
  19. #如果8719端⼝被占⽤,那么会依次+1
  20. port: 8719
  21. management:
  22. endpoints:
  23. web:
  24. exposure:
  25. include: "*"
  26. # 暴露健康接⼝的细节
  27. endpoint:
  28. health:
  29. show-details: always

上述配置之后,启动⾃动投递微服务,使⽤ Sentinel 监控⾃动投递微服务

此时我们发现控制台没有任何变化,因为懒加载,我们只需要发起⼀次请求触发即可
Sentinel分布式系统的流量防卫兵 - 图4
Sentinel 关键概念
Sentinel分布式系统的流量防卫兵 - 图5

Sentinel 流量规则模块

系统并发能⼒有限,⽐如系统A的QPS⽀持1个,如果太多请求过来,那么A就应该进⾏流量控制了,⽐如其他请求直接拒绝
Sentinel分布式系统的流量防卫兵 - 图6
资源名:默认请求路径

针对来源:Sentinel可以针对调⽤者进⾏限流,填写微服务名称,默认default(不区分来源)

阈值类型/单机阈值
QPS:(每秒钟请求数量)当调⽤该资源的QPS达到阈值时进⾏限流线程数:当调⽤该资源的线程数达到阈值的时候进⾏限流(线程处理请求的时候,
如果说业务逻辑执⾏时间很⻓,流量洪峰来临时,会耗费很多线程资源,这些线程资源会堆积,最终可能造成服务不可⽤,进⼀步上游服务不可⽤,最终可能服务雪崩)

是否集群:是否集群限流

流控模式:
直接:资源调⽤达到限流条件时,直接限流
关联:关联的资源调⽤达到阈值时候限流⾃⼰
链路:只记录指定链路上的流量

流控效果:
快速失败:直接失败,抛出异常

Warm Up:根据冷加载因⼦(默认3)的值,从阈值/冷加载因⼦,经过预热时⻓,才达到设置的QPS阈值

排队等待:匀速排队,让请求匀速通过,阈值类型必须设置为QPS,否则⽆效

流控模式之关联限流
关联的资源调⽤达到阈值时候限流⾃⼰,⽐如⽤户注册接⼝,需要调⽤身份证校验接⼝(往往身份证校验接⼝),如果身份证校验接⼝请求达到阈值,使⽤关联,可以对⽤户注册接⼝进⾏限流。
Sentinel分布式系统的流量防卫兵 - 图7
模拟密集式请求/user/validateID验证接⼝,我们会发现/user/register接⼝也被限流了

**流控模式之链路限流

**
链路指的是请求链路(调⽤链)
链路模式下会控制该资源所在的调⽤链路⼊⼝的流量。需要在规则中配置⼊⼝资源,即该调⽤链路⼊⼝的上下⽂名称。
⼀棵典型的调⽤树如下图所示:(阿⾥云提供)
Sentinel分布式系统的流量防卫兵 - 图8

上图中来⾃⼊⼝ Entrance1 和 Entrance2 的请求都调⽤到了资源 NodeA ,Sentinel 允许只根据某个调⽤⼊⼝的统计信息对资源限流。⽐如链路模式下设置⼊⼝资源为 Entrance1 来表示只有从⼊⼝ Entrance1 的调⽤才会记录到 NodeA 的限流统计当中,⽽不关⼼经 Entrance2 到来的调⽤。
Sentinel分布式系统的流量防卫兵 - 图9

流控效果之Warm up
当系统⻓期处于空闲的情况下,当流量突然增加时,直接把系统拉升到⾼⽔位可能瞬间把系统压垮,⽐如电商⽹站的秒杀模块。

通过 Warm Up 模式(预热模式),让通过的流量缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。
Warm Up 模式默认会从设置的 QPS 阈值的 1/3 开始慢慢往上增加⾄ QPS 设置值。
Sentinel分布式系统的流量防卫兵 - 图10

流控效果之排队等待
排队等待模式下会严格控制请求通过的间隔时间,即请求会匀速通过,允许部分请求排队等待,通常⽤于消息队列削峰填⾕等场景。需设置具体的超时时间,当计算的等待时间超过超时时间时请求就会被拒绝。

很多流量过来了,并不是直接拒绝请求,⽽是请求进⾏排队,⼀个⼀个匀速通过(处理),请求能等就等着被处理,不能等(等待时间>超时时间)就会被拒绝

例如,QPS 配置为 5,则代表请求每 200 ms 才能通过⼀个,多出的请求将排队等待通过。超时时间代表最⼤排队时间,超出最⼤排队时间的请求将会直接被拒绝。
排队等待模式下,QPS 设置值不要超过 1000(请求间隔 1 ms)。

Sentinel 降级规则模块

流控是对外部来的⼤流量进⾏控制,熔断降级的视⻆是对内部问题进⾏处理。

Sentinel 降级会在调⽤链路中某个资源出现不稳定状态时(例如调⽤超时或异常⽐例升⾼),对这个资源的调⽤进⾏限制,让请求快速失败,避免影响到其它的资源⽽导致级联错误。当资源被降级后,在接下来的降级时间窗⼝之内,对该资源的调⽤都⾃动熔断.

=======>>>> 这⾥的降级其实是Hystrix中的熔断

还记得当时Hystrix的⼯作流程么
Sentinel分布式系统的流量防卫兵 - 图11

**策略


Sentinel不会像Hystrix那样放过⼀个请求尝试⾃我修复,就是明明确确按照时间窗⼝来,熔断触发后,时间窗⼝内拒绝请求,时间窗⼝后就恢复。**

  • RT(平均响应时间 )

当 1s 内持续进⼊ >=5 个请求,平均响应时间超过阈值(以 ms 为单位),那么在接下的时间窗⼝(以 s 为单位)之内,对这个⽅法的调⽤都会⾃动地熔断(抛出 DegradeException)。注意 Sentinel 默认统计的 RT 上限是 4900 ms,超出此阈值的都会算作 4900 ms,若需要变更此上限可以通过启动配置项 -Dcsp.sentinel.statistic.max.rt=xxx 来配置。
Sentinel分布式系统的流量防卫兵 - 图12

  • 异常⽐例

当资源的每秒请求量 >= 5,并且每秒异常总数占通过量的⽐值超过阈值之后,资源进⼊降级状态,即在接下的时间窗⼝(以 s 为单位)之内,对这个⽅法的调⽤都会⾃动地返回。异常⽐率的阈值范围是 [0.0, 1.0] ,代表 0% - 100%。
Sentinel分布式系统的流量防卫兵 - 图13

  • 异常数

当资源近 1 分钟的异常数⽬超过阈值之后会进⾏熔断。注意由于统计时间窗⼝是分钟级别的,若 timeWindow ⼩于 60s,则结束熔断状态后仍可能再进⼊熔断状态。时间窗⼝ >= 60s
Sentinel分布式系统的流量防卫兵 - 图14

Sentinel ⾃定义兜底逻辑

@SentinelResource注解类似于Hystrix中的@HystrixCommand注解

@SentinelResource注解中有两个属性需要我们进⾏区分,blockHandler属性⽤来指定不满⾜Sentinel规则的降级兜底⽅法,fallback属性⽤于指定Java运⾏时异常兜底⽅法

  • 在API接⼝资源处配置 ```java package org.example.controller;

import com.alibaba.csp.sentinel.annotation.SentinelResource; import com.alibaba.csp.sentinel.slots.block.BlockException; import org.example.config.SentineHandlers; import org.example.service.ResumeServiceFeignClient; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.PathVariable; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RestController;

/**

  • @author :xjlonly
  • @date :Created in 2021/4/6 17:12
  • @description:控制器
  • @modified By:
  • @version: 1.0$ */ @RestController @RequestMapping(“/autodeliver”) public class AutoDeliverController {
  1. private Logger logger = LoggerFactory.getLogger(this.getClass());
  2. @Autowired
  3. private ResumeServiceFeignClient resumeServiceFeignClient;
  4. /**
  5. * @SentinelResource
  6. value:定义资源名
  7. blockHandlerClass:指定Sentinel规则异常兜底逻辑所在class类
  8. blockHandler:指定Sentinel规则异常兜底逻辑具体哪个⽅法
  9. fallbackClass:指定Java运⾏时异常兜底逻辑所在class类
  10. fallback:指定Java运⾏时异常兜底逻辑具体哪个⽅法
  11. */
  12. @GetMapping("/checkState/{userId}")
  13. @SentinelResource(value = "findResumeOpenState",
  14. blockHandlerClass = SentineHandlers.class, blockHandler = "handleException",
  15. fallbackClass = SentineHandlers.class, fallback = "handleError"
  16. )
  17. public Integer findResumeOpenState(@PathVariable Long userId){
  18. //ribbon负载均衡自动根据服务名选择相应的服务
  19. final Integer resumeOpenState = resumeServiceFeignClient.findResumeOpenState(userId);
  20. // 模拟降级:异常⽐例
  21. int i = 10/0;
  22. System.out.println("======>>>调⽤简历微服务,获取到⽤户" + userId + "的默认简历当前状态为:" + resumeOpenState);
  23. return resumeOpenState;
  24. }
  25. //定义回退方法 返回预设默认值
  26. //注意:该方法形参和返回值与原始方法保持一致
  27. public Integer myFallBack(Long userId){
  28. return -1; //兜底数据
  29. }

}

  1. - ⾃定义兜底逻辑类
  2. - <br />
  3. 注意:兜底类中的⽅法为static静态⽅法
  4. ```java
  5. package org.example.config;
  6. import com.alibaba.csp.sentinel.slots.block.BlockException;
  7. /**
  8. * @author :xjlonly
  9. * @date :Created in 2021/4/15 14:12
  10. * @description:
  11. * @modified By:
  12. * @version: $
  13. */
  14. public class SentineHandlers {
  15. // 整体要求和当时Hystrix⼀样,这⾥还需要在形参最后添加BlockException参数,⽤于接收异常
  16. // 注意:⽅法是静态的
  17. public static Integer handleException(Long userId, BlockException exception){
  18. return -100;
  19. }
  20. //java异常调用方法
  21. public static Integer handleError(Long userId){
  22. return -200;
  23. }
  24. }

基于 Nacos 实现 Sentinel 规则持久化

⽬前,Sentinel Dashboard中添加的规则数据存储在内存,微服务停掉规则数据就消失,在⽣产环境下不合适。我们可以将Sentinel规则数据持久化到Nacos配置中⼼,让微服务从Nacos获取规则数据。
Sentinel分布式系统的流量防卫兵 - 图15

  • ⾃动投递微服务的pom.xml中添加依赖

    1. <!-- Sentinel⽀持采⽤ Nacos 作为规则配置数据源,引⼊该适配依赖 -->
    2. <dependency>
    3. <groupId>com.alibaba.csp</groupId>
    4. <artifactId>sentinel-datasource-nacos</artifactId>
    5. </dependency>
  • ⾃动投递微服务的application.yml中配置Nacos数据源 ```java server: port: 8097 spring: application: name: lg-service-autodeliver cloud: nacos:

    1. discovery:
    2. #集群中各节点新都配置在这(域名-VIP-绑定映射到各个实例的地址信息)
    3. server-addr: 117.50.98.247:8848,117.50.98.247:8849,117.50.98.247:8850
    4. cluster-name: BJ
    5. #命名空间不同 服务不能相互访问
    6. namespace: 24b71e13-699a-4b5f-bf61-9a4a89036494

    sentinel:

    1. transport:
    2. # sentinel dashboard/console 地址
    3. dashboard: 127.0.0.1:8080
    4. # sentinel会在该端⼝启动http server,那么这样 的话,控制台定义的⼀些限流等规则才能发送传递过来,
    5. #如果8719端⼝被占⽤,那么会依次+1
    6. port: 8719
    7. # Sentinel Nacos数据源配置,Nacos中的规则会⾃动同步到sentinel控制台的流控规则中
    8. datasource:
    9. # 此处的flow为⾃定义数据源名
    10. flow: # 流控规则
    11. nacos:
    12. server-addr: ${spring.cloud.nacos.discovery.server-addr}
    13. data-id: ${spring.application.name}-flow-rules
    14. groupId: DEFAULT_GROUP
    15. data-type: json
    16. rule-type: flow # 类型来⾃RuleType类
    17. degrade:
    18. nacos:
    19. server-addr: ${spring.cloud.nacos.discovery.server-addr}
    20. data-id: ${spring.application.name}-degrade-rules
    21. groupId: DEFAULT_GROUP
    22. data-type: json
    23. rule-type: degrade # 类型来⾃RuleType类

management: endpoints: web: exposure: include: “*”

暴露健康接⼝的细节

endpoint: health: show-details: always

  1. - Nacos Server中添加对应规则配置集(public命名空间—>DEFAULT_GROUP中添加)
  2. 流控规则配置集lg-service-autodeliver-flflow-rules<br />![](https://cdn.nlark.com/yuque/0/2021/png/12497888/1618492352557-c24522fa-6ea5-45f5-892c-1f86739cf33d.png#clientId=u71e8ff25-3971-4&crop=0&crop=0&crop=1&crop=1&from=paste&height=452&id=u6273b3d5&margin=%5Bobject%20Object%5D&originHeight=904&originWidth=1484&originalType=binary&ratio=1&rotation=0&showTitle=false&size=101959&status=done&style=none&taskId=u19ced0fb-0d22-4a78-bb29-33997e3cfe3&title=&width=742)
  3. ```java
  4. [
  5. {
  6. "resource":"findResumeOpenState",
  7. "limitApp":"default",
  8. "grade":1,
  9. "count":1,
  10. "strategy":0,
  11. "controlBehavior":0,
  12. "clusterMode":false
  13. }
  14. ]

所有属性来⾃源码FlowRule

  • resource:资源名称
  • limitApp:来源应⽤
  • grade:阈值类型0线程数1 QPS
  • count:单机阈值
  • strategy:流控模式,0直接1关联2链路
  • controlBehavior:流控效果,0快速失败1 Warm Up 2排队等待
  • clusterMode:true/false是否集群

降级规则配置集lg-service-autodeliver-degrade-rules

  1. [
  2. {
  3. "resource":"findResumeOpenState",
  4. "grade":2,
  5. "count":1,
  6. "timeWindow":5
  7. }
  8. ]

所有属性来⾃源码DegradeRule

  • resource:资源名称
  • grade:降级策略0 RT 1异常⽐例2异常数
  • count:阈值
  • timeWindow:时间窗

Rule源码体系结构
Sentinel分布式系统的流量防卫兵 - 图16
注意
1)⼀个资源可以同时有多个限流规则和降级规则,所以配置集中是⼀个json数组
2)Sentinel控制台中修改规则,仅是内存中⽣效,不会修改Nacos中的配置值,重启后恢复原来的值;Nacos控制台中修改规则,不仅内存中⽣效,Nacos
中持久化规则也⽣效,重启后规则依然保持

Gateway限流持久化
针对API分组进行限流Josn配置:
yml文件:

  1. gw-flow:
  2. nacos:
  3. server-addr: localhost:8848
  4. dataId: ${spring.application.name}-gw-flow-rules
  5. groupid: DEFAULT_GROUP
  6. data-type: json
  7. rule-type: gw-flow
  1. [
  2. {
  3. "resource": "api_user",
  4. "count": 3,
  5. "grade":1,
  6. "resourceMode":1
  7. }
  8. ]

配置API分组:
yml:

  1. spring:
  2. application:
  3. name: cloudalibaba-sentinel-gateway
  4. cloud:
  5. nacos:
  6. discovery:
  7. #nacos服务注册中心地址
  8. server-addr: localhost:8848
  9. sentinel:
  10. transport:
  11. #配置sentinel dashboard地址
  12. dashboard: localhost:8080
  13. port: 8719 #默认8719端口
  14. datasource:
  15. flow:
  16. nacos:
  17. server-addr: localhost:8848
  18. dataId: ${spring.application.name}-flow-rules
  19. groupid: DEFAULT_GROUP
  20. data-type: json
  21. rule-type: flow
  22. gw-flow:
  23. nacos:
  24. server-addr: localhost:8848
  25. dataId: ${spring.application.name}-gw-flow-rules
  26. groupid: DEFAULT_GROUP
  27. data-type: json
  28. rule-type: gw-flow
  29. gw-api-group:
  30. nacos:
  31. server-addr: localhost:8848
  32. dataId: ${spring.application.name}-gw-api-group-rules
  33. groupid: DEFAULT_GROUP
  34. data-type: json
  35. rule-type: gw-api-group
  36. # scg: #配置限流之后,自定义响应内容
  37. # fallback:
  38. # mode: response
  39. # response-status: 426
  40. # response-body: 限流了
  41. gateway:
  42. routes:
  43. - id: order_routh #路由的ID,没有固定规则但要求唯一,建议配合服务名
  44. # uri: http://localhost:1001 #单个实例,匹配后提供服务的路由地址 (启动,cloudalibaba-provider-order1001服务)
  45. uri: lb://nacos-order-provider #使用nacos作为注册中心,匹配后提供服务的路由地址(集群实例配置方式)
  46. predicates:
  47. - Path=/order/** #断言,路径相匹配的进行路由

DateID:cloudalibaba-sentinel-gateway-gw-api-group-rules

  1. [
  2. {
  3. "apiName": "order_group",
  4. "predicateItems": [
  5. {
  6. "pattern": "/order/1",
  7. "matchStrategy": 0
  8. }
  9. ]
  10. },
  11. {
  12. "apiName": "order_group_prefix",
  13. "predicateItems": [
  14. {
  15. "pattern": "/order/*",
  16. "matchStrategy": 1
  17. }
  18. ]
  19. },
  20. {
  21. "apiName": "order_group_regular",
  22. "predicateItems": [
  23. {
  24. "pattern": "\/order\/\d*",
  25. "matchStrategy": 2
  26. }
  27. ]
  28. }
  29. ]

普通资源流控
DateID:cloudalibaba-sentinel-gateway-flow-rules
配置内容:

  1. [
  2. {
  3. "resource":"order_routh",
  4. "limitApp":"default",
  5. "grade":1,
  6. "count":2,
  7. "strategy":0,
  8. "controlBehavior":0,
  9. "clusterMode":false
  10. }
  11. ]

Nacos + Sentinel + Dubbo三剑合璧

改造“⾃动投递微服务”和“简历微服务”,删除OpenFeign和Ribbon,使⽤DubboRPC和Dubbo LB
⾸先,需要删除或者注释掉⽗⼯程中的热部署依赖

  1. <!--热部署-->
  2. <!--<dependency>
  3. <groupId>org.springframework.boot</groupId>
  4. <artifactId>spring-boot-devtools</artifactId>
  5. <optional>true</optional>
  6. </dependency>
  7. -->

服务提供者⼯程改造

  • 提取dubbo服务接⼝⼯程,lg-service-dubbo-api接⼝类 ```java package org.example.api.service;

/**

  • @author :xjlonly
  • @date :Created in 2021/4/6 16:53
  • @description:
  • @modified By:
  • @version: $ */ public interface ResumeService { Integer findDefaultByUserId(Long userId); }
  1. **改造提供者⼯程(简历微服务)**<br />pom⽂件添加spring cloud + dubbo整合的依赖,同时添加dubbo服务接⼝⼯程依赖
  2. ```xml
  3. <!--spring cloud alibaba dubbo 依赖-->
  4. <dependency>
  5. <groupId>com.alibaba.cloud</groupId>
  6. <artifactId>spring-cloud-starter-dubbo</artifactId>
  7. </dependency>
  8. <dependency>
  9. <groupId>com.alibaba.csp</groupId>
  10. <artifactId>sentinel-apache-dubbo-adapter</artifactId>
  11. </dependency>
  12. <!--dubbo 服务接⼝依赖-->
  13. <dependency>
  14. <groupId>org.example</groupId>
  15. <artifactId>lg-service-dubbo-api</artifactId>
  16. <version>1.0-SNAPSHOT</version>
  17. </dependency>
  • 删除原有ResumeService接⼝,引⼊dubbo服务接⼝⼯程中的ResumeService接⼝,适当调整代码,在service的实现类上添加dubbo的@Service注解

Sentinel分布式系统的流量防卫兵 - 图17
application.yml或者bootstrap.yml配置⽂件中添加dubbo配置

  1. dubbo:
  2. scan:
  3. # dubbo 服务扫描基准包
  4. base-packages: org.example.service.impl
  5. protocol:
  6. # dubbo 协议
  7. name: dubbo
  8. # dubbo 协议端⼝( -1 表示⾃增端⼝,从 20880 开始)
  9. port: -1
  10. registry:
  11. # 挂载到 Spring Cloud 的注册中⼼
  12. address: spring-cloud://117.50.98.247

另外增加⼀项配置
Sentinel分布式系统的流量防卫兵 - 图18
运⾏发布之后,会发现Nacos控制台已经有了服务注册信息,从元数据中可以看出,是dubbo注册上来的
Sentinel分布式系统的流量防卫兵 - 图19

服务消费者⼯程改造

接下来改造服务消费者⼯程—>⾃动投递微服务

  • pom.xml中删除OpenFeign相关内容
  • application.yml配置⽂件中删除和Feign、Ribbon相关的内容;代码中删除Feign客户端内容;
  • pom.xml添加内容和服务提供者⼀样
  • application.yml配置⽂件中添加dubbo相关内容 ```xml

dubbo: registry:

  1. # 挂载到 Spring Cloud 注册中⼼
  2. address: spring-cloud://117.50.98.247

cloud:

  1. # 订阅服务提供⽅的应⽤列表,订阅多个服务提供者使⽤ "," 连接
  2. subscribed-services: lg-service-resume

``` 同样,也配置下spring.main.allow-bean-defifinition-overriding=true

Controller代码改造,其他不变
Sentinel分布式系统的流量防卫兵 - 图20
运⾏发布之后,同样会发现Nacos控制台已经有了服务注册信息测试:http://localhost:8099/autodeliver/checkState/1545132(我新复制了⼀个⼯程,占⽤端⼝8099)