虽然容器是应用未来承载的必然趋势,但当前敏态和稳态的双态业务模式是企业业务的主要形式,部分业务依旧适合虚拟化部署,容器和虚拟机将经过长期共存和缓慢替换过程。
新一代容器与虚拟机管理调度技术,同时提供容器和虚拟机,并以容器方式编排和管理虚拟机,有效区别于传统“超融合+容器集群”部署模式,资源利用率更高,调度效果更好。
标准版:容器服务、虚拟化服务、应用管理(面向业务承载需求)。
高阶版:容器服务、虚拟化服务、应用管理、微服务、中间件、数据库、Devops、应用运维(面向云原生开发、应用管理、CI/CD需求)。
背景:某某科研所过往存在大规模实验场景,存在几百台服务器,规模庞大,一期计划使用5台GPU服务器,18台CPU计算服务器和8台管理集群服务器进行科研业务承载环境统一运维管理,业务使用全容器态运行。
且过往院内课题组多,对于谁用了资源,用了多少,资源用的怎么样,何时归还资源基本靠人工统计和管理,造成资源浪费。科研单位IT运维人员少,运维压力大。
业务痛点
1、运维管理:信息中心运维部门人员少,运维负责人希望平台提供流程化方式申请容器资源环境,审批后自动开通,减轻运维工作负担;
2、算力支持:空天院科研业务除了提供基本的CPU容器,还需要提供GPU/vGPU容器支持高性能并行计算,并按课题组进行配额分配管理。
3、平台使用:传统云平台缺乏统一的科研实验管理平台,开展课题实验需要手工部署和配置运行环境,繁琐且低效,无法满足不同课题组需求。
某某集团,主要致力于汽车动力底盘系统、饰件系统、智能驾驶系统等领域的研发与制造。拓扑集团有大量的研发产线,早在19年就开始使用开源容器产品,且开源容器集群部署难度大,配置复杂,手动配置Kubernetes相关的各种组件、配置文件、证书、密钥、相关插件和工具,整个集群搭建工作需要花费专业人员数天到数周的时间。同时围绕容器的网络、存储、操作系统、编排等各种技术,需要至少3名研发(前端界面、后端研发、测试、运维),花费1年时间,每名研发30W年薪,建设维护成本近100W;而后拓普集团使用紫鸾应用容器平台,平台自带各种部署所需要的环境组件,原先需要3天上线的业务,现在半天就能完成,大大降低了运维工作量,业务上线更快,运维更简单,更省钱。
业务痛点:
1、业务管理分散,资源利用率低:业务分散运行在物理机或虚拟机环境,资源缺乏统一管理和调度,闲置资源得不到及时释放,资源整体利用率不到40%
2、传统命令方式运维、上线和变更效率低:业务部署、升级需要分别登录到各台物理机或虚拟机,通过命令方式执行部署和升级任务,环境配置费时费力。
3、传统技术架构、业务容器化难:各个业务目前未进行容器化、微服务化改造,HIS、EMR等业务系统采用低版本.Net Framework框架开发:Windows容器部署限制多。