1.2 硬件环境要求

基于1.1节介绍的分布式架构,一般服务器配置分为如下几个模块。

(1)模型解析服务器:提供模型解析服务GPU服务器,需要高内存,高CPU主频,参考BIM工作站配置,可弹性拓展。

服务器 参数项 推荐参数
中心管理服务器 CPU 服务器CPU或Intel i9系列的高主频CPU
内存 根据模型大小确定,推荐至少64GB-128GB内存(Revit大模型吃内存资源)。
GPU 推荐NVIDIA GeForce系列GPU,RTX2060/2070/2080/3060/3070/3080/3090;或Quadro系列。
存储 根据实际项目需求量配置。需求量极大的,可单独配置存储服务器。
操作系统 Windows Server 2019系统。
带宽要求 用户上传模型文件需要考虑到带宽需求,内网则无需考虑。
软件安装 按需安装Revit等等需要用到的第三方软件(按使用场景,按需安装),详见下一节软件环境要求部分。

如果解析服务用得少,建议无需单独配置,采用OurBIM公有云的解析服务,解析完下载数据包到本地;或与实时云渲染服务器共用即可。

(2)实时云计算服务器:采用GPU渲染服务器,支持一机多卡,可弹性拓展。

实时云渲染服务器,一般分中心管理服务器渲染节点服务器。如果简易部署,则不用区分;如节点数量较多,一般还可单独配置共享存储服务器(可供实时渲染服务单独使用,或供模型解析服务与实时渲染服务共享使用)。

一般中心管理节点保证高可用,不用做实时渲染任务。中心节点与渲染节点,可处于同一局域网,也可分布在不同的公网网段。与中心节点在同一局域网的各个渲染节点,可共享一个公网IP地址,与中心节点不在一个局域网的各个渲染节点,需要每个服务器节点都有一个独立的公网IP。

中心管理服务器:不需要GPU,配置CPU服务器或虚拟机,保证高可用,配置参考用户自己的应用服务器,可与应用服务器共用。

渲染节点服务器:

服务器 参数项 推荐参数
渲染节点服务器 CPU 推荐志强系列的服务器CPU或Intel i9系列的高主频CPU,多显卡集群主机可配置双CPU。
内存 按显卡数量确定,按每块显卡配置16-32GB内存进行配置。
GPU 推荐NVIDIA GeForce系列GPU,RTX 2060/2070/2080/3060/3070/3080/3090等,推荐一机多卡版本的服务器,可有效节省其他组件的费用。显卡数量按BIM模型的并发需求量配置。针对大场景,按单卡2-4个并发核算。比如10个并发,可配置3-5块RTX 3060。针对小场景,按3-8个并发核算,比如10个并发,可配置2-3块RTX3060。单显卡配置越高,理论上支持的并发数量越多。
存储 根据实际项目需求量配置。需求量极大的,可单独配置存储服务器。
操作系统 Windows Server 2019系统。
带宽要求 按单路并发2-4MB/s配置服务器的外网带宽资源。比如10个并发,可配置20-40MB/s的专线带宽资源。
如果要适配高分辨率终端,比如2K、4K大屏,对服务端带宽的配置要同步提升。如果是内网使用,此项可不考虑。
软件安装 按需安装需要用到的第三方软件,详见下一节软件环境要求部分。
显卡欺骗器 需要给每块显卡的视频输出插槽,各插一个显卡欺骗器硬件,或使用第三方虚拟显示器软件,给每块显卡虚拟出一个虚拟显示器。推荐显卡欺骗器。(否则可能无法检测到显卡资源,无法正常分配显卡算力,无法加载BIM模型)

(3)共享存储服务器:当渲染节点特别多,存储需求量特别大的,单机独立存储成本较高,可单独配置高I/O的共享存储节点服务器(内网传输,推荐内网万兆网口,千兆起步)。

(4)应用服务器:这个不是OurBIM运行需要的服务器,而是用户自己的产品或项目应用服务运行的服务器。一般采用普通CPU服务器,无GPU需求,Windows Server或Linux系统,内存、存储、带宽等按需配置。此项一般可与OurBIM的中心管理服务部署在一台服务器上,共享资源,减少数据跨网流转。

OurBIM支持的部署方式,很灵活:

(1)简易部署:即多项服务合并部署。如果并发数量并不高,或部分服务并不常用,则以上几项服务器需求,可合并到一台机器,共享资源。适用于OurBIM私有化(项目版)授权。

(2)分布式集群部署:各项服务均可进行分布式的集群部署。如下服务器部署示例:

image.png
一般需要较多的是实时渲染资源,渲染节点最好部署在离用户进的区域,以尽量降低网络传输的时延,这对云VR、云AR的用户体验至关重要。每一个边缘节点,均需要一套存储服务,通过公网实现与中心服务器的数据同步。

不同地理位置的用户发起访问时,会自动判断距离用户最近的空闲渲染节点,将其算力资源分配给此用户,弹性消耗和释放。

1.2 硬件环境要求 - 图2

(3)推荐企业版配置:一般把模型解析服务器单独部署(按模型解析工作的处理工作量和使用频率配置,高主频CPU);应用服务器、模型渲染中心服务器、共享存储服务器可合并1台(无GPU需求);渲染节点服务器按购买的并发数量授权进行配置(GPU集群)。这三类服务器处于同一内网,共享存储空间资源。

(4)推荐项目版配置:没有模型解析服务器需求,一般采用简易部署模式即可。