foreman作为linux自动化运维工具具为什么会如此强大

如何利用自动化运维工具,实现传统企业自动化巡检、主机信息管理
近来社区中自动化运维是个热门话题,在“第十届AIX&Linux高手挑战赛”中也有不少相关技能点。前段时间社区组织的“如何利用自动化运维工具实现传统企业‘自动化巡检、主机信息管理’的需求”活动中,有不少具有参考性的观点、知识点及实践经验,辑录于此。
自动化运维谈谈原生态需求
galaxy1975 自动化运维专家:
现在自动化运维、DevOps一大堆和运维相关的新名词、新概念层出不穷,一下子让我们这帮技术屌丝们产生了极大的惶恐情绪,仿佛一下子什么都不会干了,什么都不会了。
在我早期出门和别人忽悠"自动化运维”的时候,会碰到朋友们2种截然不同的反应,一种好像碰到了救世主,认为运维的一切问题能够迎刃而解,简直是拿到了江湖卖艺人的"大力丸”,另一种反应冷淡。
恰恰是这些反应冷淡的人,让我能够给自己的大脑中放上2个老北京冰棍儿给自己降降温,然后从头思考企业运维的当前需求和未来需求,然后从需求、价值层面考虑运维系统的建设和完善。
在一个企业中,运维的使命包括:系统建设、控制成本、优质服务、风险防范四个,那么基于这些使命,在运维上要做到的有哪些呢?
1. 稳定运行
包含变更管理、应急预案、投产演练、业务监控等
2. 资源管理
资源信息管理、容量管理、性能管理
运行规范、系统审计、作业调度、批量
4. 精确管理
可计量、可视化
上面这4点内容,还希望同学们帮忙补充完善。
那么我们从这一点考虑,就会发现,不管是在没有”自动化运维”的5年前,还是有了”自动化运维“的现在,企业的这几个基本需求是不会改变的,那么是否以前的企业运维团队都是傻子,都不知道要做这些事儿?
不是这样的,任何一个在运维团队的管理人员,脑子里会一直装着这些需求(不像我,脑子里经常有”不能描述的敏感词“),只是以前的能力实现要受限于大型IT公司(例如HP、IBM等等)的产品限制,当然,还有预算的限制。
现在的世界发生了一些改变,X86+Linux的普遍以及开源世界的蓬勃发展,让大家一下子看到世界上多了很多的可以随时拿过来并且几乎没有预算门槛的工具,比如puppet、saltstack、ansible等等。
结果,事情从以前的乙方产品推动项目,变成了社区技术推动项目,实际上这2点都是不对的,正确的姿势是技术决定可行性、需求推动项目!
讲到这一点,我们再想一想我们一直讨论的“自动化运维”能够实现上面4大类里面的哪一些需求,是不是感觉一下子失落了很多?
当然,现在的新的业务形态,例如如火如荼的“互联网+”给自动化运维带来了新的需求点,就是敏捷响应,那么,我们在来罗列一下自动化运维能够响应的所有需求(这个也欢迎同学们提出指正意见)
1. 标准化部署
2. 系统审计
3. 系统巡检
4. 敏捷部署
5. 批量变更
6. 自动化应急响应
需求列出来了,那么,是否企业中能够使用自动化运维来实现所有的这些应用呢? 貌似还不是那么一回事儿,举个例子:
批量变更,这是自动化运维的一个功能点,但是,目前传统企业中,所有的变更是要遵从“变更管理”的,所以,很多变更只能“一个应用一个应用”的变更,那么感觉上的“批量”,就变成了“小批量”甚至是“微批量”,那么,自动化运维在批量变更上的引入,是否不仅没有降低作业工作量,反而增加了管理复杂度了呢?
大家回想一下携程的自动化发布乌龙事件吧……
自动化运维出错后的风险控制问题
以我行实际案例为例,自动化运维确实可以给运维人员带来方便,减轻工作量。但自动运维有一个致命的缺点:操作透明、运维程序出错后容易导致不可逆的生产故障。
请问针对上述问题,有没有好的解决方案。(gggeeqg 中国银行 系统运维工程师)
galaxy1975 自动化运维专家:
自动化运维,我们简单来说,有3大类操作:规范遵从、部署、操作变更。
部署实际上不会有你所说的风险问题,因为系统还没有上线。
规范遵从、操作变更都会产生风险,那么如何降低风险:
1. 遵从变更流程, 即便用了自动化运维,也只能在变更窗口进行变更,不能突破企业的变更流程。
2. 变更推送,管理员控制变更的动作,而不是系统自己处理,这就是puppet里面说的pull还是push。
3. 用了自动化运维,实际上就算是DevOps了,那么你的一个变更动作,要先测试的,puppet中的测试环境,就是干这个用的,先测好,然后小规模变更,然后大规模批量变更。
换句话说,就是要“半自动“,而不是互联网那种”全自动“
Jhon 技术经理:
从我自身运维实际出发,其实运维从诞生到发展至今都是为了提供业务稳定,高效的运行,而使用自动化与人工的差别是一种批量化处理大规模性问题与精细化处理对口故障,国外优秀成功的案例就是分而治之,我想用在中国也是很合适的。
1.自动化运维机制的制定,针对专业系统制定专业方案,提供相应的运维制度
2.人员配备上,将复杂问题简单化,系统问题,专业化,各司其职,互相配合
3.开发对口的专业运维系统,将具体的故障问题可视化,故障发生做到事出有源,事后可控。
4.强化专业知识技能,面对大规模性事件,做好模拟响应,这个很重要,我们在实验室就是模拟各种灾难...
适合中小银行使用的自动化运维产品
想找到一款适合中小银行使用的应用级别的自动化运维产品 主要实现自动巡检 系统信息采集 新系统上线前合规性检查 程序自动部署 生产系统与灾备系统间应用版本比对等功能 (chaozi84 北京银行 系统运维工程师)
galaxy1975 自动化运维专家:
现在可以使用的工具很多,最常用的就是puppet和ansible,在一些银行中都有相关案例。
puppet比较适合做状态保持类的工作,建行用的就是puppet
ansible适合做一次性批量工作
但是,我有一些建议:
1. 银行中的“批量”工作实际上并没有那么多,这个是受限于银行的变更流程,所以
2. puppet+mco也可以实现批量的命令执行,但是,在进行批量命令执行的时候,要注意黑白名单的问题,避免误操作导致大批系统的故障,目前这些工具还不怎么提供黑白名单的功能,这个需要自行开发
我在客户现场使用的foreman+puppet+mcollective,然后自己按照客户需求做了定制的界面和定制的功能,包括一些基于安全的风险防范。
提问者(追问):
请问这两种产品哪个更适合应用系统层面的自动化运维?我们的需求很明确:
1、系统安全策略等的合规检查
2、设备管理:可以通过抓取各种版本信息的方式来代替传统设备管理方式
3、已上线的系统可以定期做安全策略检查
4、自动巡检
5、自动化上线部署
6、多数据中心间的应用程序版本比对
galaxy1975 自动化运维专家:
puppet足矣
“多数据中心间的应用程序版本比对”,这个用自动化工具原生实现不太好做,我脑子里还么有特别成熟的方案,因为这个“对比”,要去构建对比关系,这是一个额外的信息,维护起来可能会比较麻烦。
nitkey ECT 系统架构师:
你说的这些需求我感觉上面上面任何一个软件都可以满足,但都需要自己根据需求去编写脚本,软件本身是不会集成这些个性功能的。
提问者(追问):
多数据中心应用对比不是重点 比较侧重上文中的1、2和4 其中自动巡检、设备信息和软件版本比较重要 不知道您提到的puppet产品是否适合这类运维管理需求 主要前期想解决应用层面的人工巡检和大量设备的软硬件版本维护工作。
就应用层面的巡检我想问一下 该产品是怎么解决不同应用系统的个性化需求 因为应用层面的巡检不像操作系统那样有规可循 可能千人千面 不同的应用系统巡检方法也不一样 难道需要逐个去定制巡检脚本?这个问题是怎么解决的 谢谢
galaxy1975 自动化运维专家:
主机信息管理应该可以搞定你说的设备信息和软件版本问题。
巡检也可以。
这两个在我之前项目中都是用puppet的fact机制来实现的,很多工具都有类似的机制。
应用的巡检,这个比较麻烦,因为就像自动化生产线一样,产量太低的时候,生产线的投入都收不回来,今天早上看书,说集装箱刚刚使用的时候,做集装箱运输的公司赔得一塌糊涂,连集装箱之父公司都抗不下去黄掉了。
自动化运维也是一样的,这就是我们所说的“纳管”问题,进行纳管的对象,必须数量足够多。
前段时间,跟一个朋友讨论一个mongo集群的puppet实现,后来才发现只有一个集群,4个节点,我说:大哥,你写个脚本装吧,别放到puppet里了....
不过,哪位大哥说,老子有的是钱,你干不干? 你们猜什么结果?
我屈服了!
企业是否要制定Linux标准化规范,这些规范都包含哪些内容?
c08007 技术总监:
企业制定统一的Linux标准化规范,是非常有必要的,会带来以下几方面好处:
*有利于标准化的建立,Linux作为分布式系统或集群中的基本os单元,其标准化的程度决定了整个分布式系统的标准化程度;
*便利于自动化,标准化是自动化的基础,只有统一的标准化基础设施,才有可能实现高度自动化和运维智能化;
*便于运维效率提高,经过标准化后的linux系统,运维不再构建于人,更多的是自动化工具和运维规范及流程。
常见的Linux系统规范主要从以下几个方面开展:
1,硬件规划级别:
*磁盘分区及挂载标准,比如 只能使用uuid进行挂载,必须写入/etc/fstab;磁盘挂载参数;
*网络配置标准,比如 网卡配置标准,网卡bonding标准
2,系统级标准:
*主机名配置标准
*基本配置标准:dns配置标准,端口划分标准,swap配置标准
*基本内核参数配置标准:文件系统参数,内存flush配置,网络配置参数标准
*系统级服务配置标准:ssh标准配置,mysql等标准配置
*安全防护配置:apparmor配置,pam配置,security配置等
3,应用级别
*应用相关系统级参数:文件打开数,core参数配置等
*应用部署路径规划:应用数据路径、日志路径、函数库路径等
*日志切分配置
*应用级资源划分标准:比如端口分配等
galaxy1975 自动化运维专家:
目前企业的系统建设大多基于X86+Linux平台,实际上,在之前的小机时代,规范的建设是很成熟的,只是这几年Linux的快速发展,我们在企业中欠了一些债务需要尽快偿还
Linux规范主要包含以下几方面内容,实际上和一楼的内容差不多:
1. 部署规范
主要是分区、初始软件包,这地方实际上主要是一个分区规范,要针对物理机、虚拟机分别指定不同的分区规范,然后操作系统采用最小化安装即可,把其他的内容放到配置阶段实现
2. OS基础规范
主要指定和OS系统相关的,主要包括安装的软件包、开启和关闭的服务、网络的配置、主机名、时区等
3. OS安全规范
安全规范是企业比较关注的,主要分为:账户安全设置(密码规范、密码复杂度、密码有效期、密码更改策略、禁用账户),服务安全设置(开启的每一个服务,例如ftp、ssh都要有针对性的设置安全内容),登录安全(登录超时退出、登录锁定),系统账户设置(root账户、管理员账户、巡检账户、密码管理账户、应用账户),网络安全设置,内核安全设置,审计的配置
4. OS优化规范
Linux的基本配置没有考虑到现在NB的硬件平台,所以,设置都是很弱的,所以,要设定一个基础的优化设置,主要包括:网络优化、内核优化、tuned的配置、打开文件数、打开进程数
5. 业务软件规范
业务软件规范分为2个层面,一个是归系统部门管的,包括软件的部署目录、软件的数据目录、软件登录账户、软件启停脚本。另一个是归软件部门管得,主要是日志规范,包括日志的内容和分割,日志的业务规范(例如业务交易ID、信息内容)
需要注意的有几点:
1. 这些规范,可能会涉及到2个部门,所以,要根据部门职责来分布实现规范,不可作为一个规范统一实施,避免部门之间的沟通成本。
2. 还是沟通的问题,规范制定后,最好是能够和开发、测试一同过会,这样才能有效的在整个软件流程中进行规范的推广。
传统行业面对开源自动化运维软件,如何进行取舍?
传统企业特别是IOE型信息架构的传统企业,都有IOE等大厂商提供的成熟的监控软件,如IBM的Tivoli等,但相比于现如今种类繁多的开源监控软件,他们在系统的监控深度上面还是具有一定优势,而我认为这种优势体现在各大厂商监控程序与各自设备的兼容性较好、公司的信息安全制度、运维人员对原监控软件的熟悉程度等,既然要讨论将自动化运维应用到传统行业,那么势必会面对的问题就是,如何处理原监控体系和对自动化运维体系的选型 (qq 交通银行 系统工程师)
galaxy1975 自动化运维专家:
1. 还是那句话,不是技术推动项目,而是需求推动项目,所以,不要吧眼光盯在技术上,而是盯在自己单位有没有响应的需求,如何实现这些需求。很多时候,需求的实现,只有30%取决于人员对技术的掌握,主要是运维理念,就像一个产品,最重要的是产品思路。
2. 别太把开源当回事儿,开源仅仅是一种软件的开发方式而已,针对我们企业来说,开源带来的好处只有2个:1)更低的成本,2)更大的灵活性。 实际上每一个开源软件,基本上都有对标的商用软件。
现在的ansible、puppet什么的,替换的是原来BMC、HP的一堆方案。再说了技术的东西是可以学习的,不管啥软件,有半年基本上就熟练了,1年就精通了。
关于选型,也不要仅仅从技术角度入手,PHP和JAVA谁是世界上最优秀的语言:)
主要选型是要考虑整个生态的,你的朋友中会puppet、用puppet的多,你就用puppet。 你的行业中,别人用啥,你也尽可能用啥。这样的好处有:1.有些坑别人都趟过了。 2. 万一出了事儿好找人 3. 想挖人也好挖:)
nitkey ECT 系统架构师:
我觉得传统行业不像互联网行业一样没有历史包袱,可以一上来就各种开源。传统行业原有的运维软件和架构往往已经磨合的比较成熟,运行也比较稳定,用开源软件完全替代初始成本也会比较高,我觉得可以互相借鉴,共存。说到开源的选型,同意@galaxy1975的观点,尽量选用成熟的,业界广泛使用的软件,遇到的坑会少一点,出了问题也好找资源。
提问者(追问):
我对开源自动化运维软件接触的也是比较少,目前我们自动化运维软件还是在使用BMC,每日对系统做健康性检查,每月对各系统做合规和安全性检查,而对操作系统的网络、CPU.内存;中间件的健康状态、数据库的负载等的实时监控还是利用Tivoli每隔一段时间进行数据的搜集,然后根据预先设定的阈值进行判断,产生告警仅此而已。
本次讨论的议题2如何实现实时的主机信息管理,想跟各位了解下,大家都是如何在一个统一的平台里面实现对操作系统、中间件、数据库的实时信息监控和管理的?
galaxy1975 自动化运维专家:
一句话:脚本:) 在puppet中,你可以吧你想收集的任何结果,写个脚本(支持shell、python、ruby),这个脚本返回一个Key=Value的KV键值对,后台就会把这个键值对存到数据库里。 关于如何区分各种KV值的意义,比如那些事巡检,那些是数据库信息什么的,这个实现约定,算是自动化运维的“开发约定”。 您说的很对,实际上,这么多年,运维需求并没有太多改变,之前的工具已经实现的不错了,现在的开源,只是提供了一种新的可能。 同时,开源还能满足人”不服管“的心态,因为可以随便折腾,心有多大,你的方案就有多大。
提问者(回复):
面对监管机构的要求和系统合规性的考虑,对于新的运维模式,在现阶段只能是说从技术上面可以畅想下,理想的落地实现,还是要一段距离。
CMDB在企业中是如何实现的,有什么缺点,目前企业要构建什么样的CMDB?
galaxy1975 自动化运维专家:
CMDB业内做的最好的应该是HP和BMC了,不少传统企业都实现过了,现在说说缺点:
1. 老问题,不够灵活
2. 成本高,特别是现在大量的“屌丝”系统(X86+Linux)
3. 实施周期长,客户现在都想构建“小而精”的系统
4. 以前的CMDB更多面向“管理团队”,而不是“运维团队”
5. 信息不实实。
目前我的想法是,企业要构建的CMDB,实际上把它叫成CMDB有些太大了,我平时称为“主机信息管理系统”, 和自动化运维平台进行整合,系统安装完成后,就已经纳入到主机信息管理系统中,可以从各个维度搜索查看相对应的主机信息并进行统计。
总体来说,是一个面向“运维”团队的CMDB。
举例:除了openssl的漏洞,官方给的数据是在6.4一下版本中都有该Bug,那么,以前的CMDB要通过什么样的手段才能Run出来6.4版本以下的系统信息呢,Run出来之后,如何进行统一变更呢?
所以,CMDB也是要和自动化运维平台进行整合,这样,信息才能帮到操作。
我在之前的项目中,通过puppet的fact机制,收集主机信息到数据库中,1. 为了运维的方便,所有系统一定纳入到了puppet管理中,所以,不会存在着“不在管理”的系统。2. 按照一定条件,搜索出来的主机可以直接进行自动化运维操作,一站式!
nitkey ECT 系统架构师:
转一个吧,剖析的很透彻:
1. 缺乏合理化、整体化的规划
需求不清晰,定义了不合理的配置广度和深度。
在大而全? 还是小而深? 方面犹豫不决:
这种决策机制在项目初期往往耗费了大量时间,但随着新技术的不断涌现,这种方式已经无法适应越来越敏捷的IT环境,我们发现一种相对静态的CMDB模型已经不能满足纳管新IT组件的要求。
如何解决?
用一种更为灵活的CMDB模型扩展机制。
采用了不正确的管控策略:
按照经典ITIL的管控和项目实施机制,配置管理规划,尤其是CMDB模型的规划往往由项目组承担,一旦规划完成后整个模型也就变得很难再进行扩展,应该说这里采用的是一种集中管控的策略。
但在实际IT运维工作中,我们发现对于CMDB使用最多的是各个二线团队,不同团队之间对于CMDB 深度和广度的要求,以及管控方式都有较大差别。
如何解决?
基于集中分布式的理念建立CMDB管控体系
2. 配置管理人员职责定义不清晰
配置经理、配置管理员、配置Owner之间职责不清晰:
按照ITIL或ISO20000中对于这三类角色的定义往往过于宽泛,没有进一步考虑实际运维人员的运维场景,以及使用的运维工具,导致职责定义和实际做事方式脱节。
如何解决?
结合运维场景、运维工具、流程角色职责,对于各角色的职责进行重定义。
角色职责和岗位的对应不明晰:
在没有ITIL以前,在企业IT部门或数据中心往往找到不到一个现成岗位对于IT配置信息进行集中管理,而是每个人各管一摊。
实施ITIL后,究竟由哪个部门的哪个岗位承担配置经理这一职责往往是最让人伤脑筋的,最后往往是赶鸭子上架。这种角色定义方式最终导致体系无法运转。
如何解决?
基于集中分布式的理念设定角色和岗位的对应关系
3. 配置管理成了IT运维的负担
这其实是CMDB在企业落地所面临的最大挑战,无法充分调动运维人员的积极性,主要体现在:
初始数据收集工作量大:
存量的配置数据往往基数很大,一般配置的量级在5000以上,考虑到云化环境的海量运维场景,这个基数还会更大。
随着分布式应用架构以及微服务架构的兴起,未来一套新应用系统上线引入新的配置项数量也无法简单通过手工输入的方式来完成。
如何解决?
借助自动化手段进行数据采集
单一的自动化配置发现工具只是一种幻想:
如前所说,约从2007年开始,业内引入了自动发现工具用以解决配置数据的初始化问题,但由于这类工具往往由某个厂商提供,导致了配置发现的局限性,企业往往也要付出较大成本。
如何解决?
建立适配多类自动化工具的CMDB架构,将企业现有的脚本、监控工具、自动化工具、云平台都转化为配置数据的提供方。
投产后由于变更频繁,数据无法保证及时准确:
以往企业一般采用变更操作驱动配置修改(人工修改、或自动化发现修改)的方式以确保配置数据的准确性,这种方式往往出现了配置信息的不一致。
如何解决?
建立基于配置基线驱动的IT环境变更(操作)架构,即建立通过配置修改事件触发变更操作的事件响应模型。
对于未来软件定义环境,这种架构是一种必然选择。
如何让人人“乐于”参与:
这里的参与主要体现在二个方面:
1)需要使用与自己相关的配置数据时,CMDB可以立即提供;
2)遇到CMDB无法提供的数据时,IT部门可自行在一定标准和约束下扩展满足本部门运维CMDB模型,支撑部门级的运维场景。
如何解决?
建立小、快、灵的CMDB架构,支撑快速扩展、快速纳管、快速交付数据。
4. 配置数据的价值无法呈现
缺乏清晰的场景定义,包括流程价值、监控价值、BSM价值、云价值等:
单一流程驱动CMDB的场景,无法让CMDB中的数据流动起来,随着时间的推移CMDB中的数据就逐渐腐败—不及时也不准确。
同时,CMDB在技术上作为一个“数据库”,要让其中的数据能够流动起来,必须明确与之匹配的运维场景。
场景是用来描述与CMDB中某些配置项交互的一组活动,满足IT部门某一方面的运维管理目标,这一目标可以被度量、跟踪、改进、可视化,与此同时,CMDB的价值也随之呈现。
如何解决?
建立基于场景驱动的CMDB解决方案集合;
缺乏有效、明确的配置数据集成策略:
如前所述,CMDB是一个逻辑上的数据库,其中的数据需要和企业现有IT环境中的多类数据源进行整合,一套行之有效的数据集成策略和ETL(数据抽取、转换、转载)工具也必不可少。
如何解决?
建立数据集成策略,引入ETL。
参加第十届AIX&Linux高手挑战赛
第一赛程抢位赛
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点foreman架构的引入1-foreman作为自动化运维工具为什么会如此强大
<span type="1" blog_id="1542171" userid='
分享到朋友圈
好的文章,和好友一起分享

我要回帖

更多关于 运维自动化工具排行 的文章

 

随机推荐