谈到服务器,单路服务器和多路服务器总是人们的一个关注点,那么为什么会出现单路和多路服务器呢?
1.如果你是服务器初级选手,你可以这么回答。
**
简单来说,多路服务器是为了增强服务器的性能,CPU主要承担的就是计算的功能,多一个CPU自然在性能上肯定会更强。
我们将CPU比作一个运输卡车,货物就是我们要计算的信息,CPU运算就类似于卡车运输货物。
同一时间运送的货物越多,说明CPU运算能力越强。
单CPU系统就相当于一辆卡车在一条车道上跑。
由于车少,所以运输能力有限。
以往CPU生产厂商都是在不断的提高卡车的载重即主频来提高他的运输能力。
双CPU系统-价格相当于两辆卡车在两条相交的车道上跑。
每辆车大部分都在自己的路上跑,但偶尔会相遇、停车避让。
由于车多路宽,所以双CPU运输能力最强。
所以我们可以从CPU数量上简单来判断服务器的性能,一般来说,双路的服务器要比单路的要强。但这并不绝对。
**
2.如果你想成为技术专家,还需要知道下面的
有人可能会说,多加个CPU服务器性能就强,那么我们需要高性能服务器就多加几个CPU呗,两个不行就四个,四个不行就八个,甚至成百上千个。
这不就解决服务器性能不够的问题了吗?
答案肯定是不行的,CPU仅能影响服务器的一定的性能,服务器的性能除了跟CPU相关,更重要的还跟服务器的I/O速度有关**。
**
众所周知,不论至强还是Power,处理器主频都超过了1Ghz,也就是说时钟周期都远远小于1ns,处理器在一个时钟周期内可以处理多条指令,平均到每条指令的处理时间就更短了。
相对而言,I/O访问速度就要慢很多,CPU访问自身Cache一定是最快的,延迟在10ns级别,相当于几十个时钟周期;
访问本地内存延迟可以控制在100ns以内,跨CPU节点访问内存,其延迟就到了us级别;
如果是要访问PCI-E上的设备,则要经过VFS、Diver等多个层次,就算通过DMA访问,其延迟也至少在10us以上。
在当前的技术条件下,I/O是系统性能提高的瓶颈,如果I/O问题没有解决好,处理器数量的增加不一定会带来性能的提升,极端情况下,新增的资源有可能被I/O全部消耗掉。
单纯的增加CPU的数量并不能大幅提升服务器性能。
所以,如何建立一个I/O模型,尽量降低I/O对系统性能的开销,是多路服务器设计必须要考虑的关键问题之一。
目前来说,四路服务器在I/O性能方面已经达到一个极限,在多路的产品反而因为I/O的影响达不到想要的性能。**
这也是目前服务器厂商服务器产品最多也就基本在四路的原因