一个工具的出现必然需要解决一些问题,Docker也不例外,简单说说我们常见的2种情况Docker是如何解决的吧。
1、程序在我这跑得好好的,在你那怎么就不行呢?
这是一个典型的应用场景,作为程序员别说没有遇到过这个问题。Docker image(镜像)中不仅包含了代码,也包含了程序运行时所需的所有依赖。比如java的程序,肯定要在image中包含jdk;比如Python的程序,肯定要在image中包含对应版本的Python解释器。程序在我这跑得好好的,去你那就不行了,这显然是环境问题,Docker把整个运行时环境打包放到image中,所以搞定了环境依赖问题!
这点很重要么?真的很重要!我们知道,一个程序要跑起来,需要这么几部分:代码 + 运行环境 + 配置 + 依赖的服务。代码当然就是同一份代码,不同的环境都一样,通常不会有问题。但是问题的关键就在于环境和配置,不同的环境、不同的配置,同样的代码就不一定能按部就班的跑起来了。Docker image中包含了运行环境+配置,既能够确保环境和配置的统一,也能够方便快速的部署。
所以总结起来就是:Docker解决了运行环境和配置问题,方便发布,也就方便做持续集成。
2、系统好卡,肯定是又有哪个哥们的程序在作孽了
现在的服务器都牛的很,动不动128G内存,24个CPU,Linux本身就是个多租户的操作系统,可以多人共用,但是如果某个程序狂吃内存和CPU,占用了太多系统资源,这就会影响其他程序的运行。
一个公司的几个同事共用一台机器出现这种问题可以通过内部协调沟通解决。但是云主机提供商呢?不同的用户之间不认识,共用一台强大的计算机,结果某个程序耗尽了资源,用户肯定不乐意了。所以虚拟机出现了,良好了做了资源隔离,不同用户之间彼此老死不相往来,不会相互影响,世界一下子清静了。但是,虚拟机有缺点:创建速度慢,迁移起来麻烦,因为中间加了一层guest os,有了性能损耗,一个牛逼的机器也就创建十几个虚拟机,太浪费了…
相对虚拟机的重量级虚拟化方案,Linux内核级的一些隔离方案让人们看到了希望,cgroups、namespace、tc、quota、chroot、lxc。终于,Docker出现了,Docker利用这些成熟的技术,让虚拟化变得轻量了起来,创建一个container瞬间完成,秒级!cpu指令集不再被翻译执行,性能损耗非常少,虽说隔离性没有虚拟机那么彻底,安全性上稍差一些,但也基本可以用,不用太担心~
所以总结起来就是:更轻量的虚拟化,节省了虚拟机的性能损耗。