拿来即用的企业级安全运维体系搭建指南

林伟壕 2018-09-13 09:38:14
作者介绍

林伟壕,SecDevOpsor,先后在中国电信和网易游戏从事数据网络、网络安全和游戏运维工作。对Linux运维、虚拟化和网络安全防护等研究颇多,目前专注于网络安全自动化检测、防御系统构建。

 

在上篇《99%的人会中招的运维安全陋习,请规避!》中,我们花了很大的篇幅去剖析运维安全的问题所在,本文我们将针对如何解决问题来进行详细说明,从问题入手,通过纠正或者培养良好的运维安全习惯,搭建完整的运维安全技术体系

 

一、培养良好的运维安全习惯

 

想要解决运维安全的问题,首先就必须要培养良好的运维安全习惯。这包括了很多方面的做法,比如:

 

端口开放

 

  • 默认监听内网或者本地;

  • 如需监听全部外网,iptables、password和acl能加都加上。

 

iptables

 

在cmdb为机器或者服务设计好iptables规则,同时结合同步机制:

 

  • 部署服务时使用cmdb生成的iptables同意更新;

  • 测试时一旦清空iptables后使用自动或者手工方式刷回标准iptables。

 

权限管理

 

  • 采用puppet、ansible或者saltstack等集群管理工具统一管理操作系统权限;

  • 遇到临时需要高级权限时手工后添加定时回收,量大时采用自动化方式配置。

 

脚本安全

 

  • 校验变量,特别是高危操作;

  • 原则上不给脚本授权sudo密码或者授予666的权限位。

 

密钥管理

 

  • 不要让ssh私钥离开你的办公电脑;

  • 听IT的话,定期修改你的corp或者域密码;

  • 配置与代码分离的一个理由是:账号密码不能写在代码里。

 

服务管理

 

  • 能不用root启动最好不要用root;

  • 不要把服务根目录放到你的home目录。

 

代码管理

 

  • 跟工作相关的代码禁止上传github!!!

  • 仔细学习git/svn等版本管理工具的使用姿势;

  • 定义好你的.gitignore,特别是删除你的.DS_Store。

 

应用选型

 

  • 安全性是应用选型的一个重要考虑点;

  • 对漏洞修复和安全编码不怎么积极的开源软件,再好用都不要用。

 

关注应用安全配置文档

 

  • 一般应用程序的官方说明文档会包含安全配置的章节,在部署时需要循序渐进,按照最佳实践配置安全部分,而不是嫌麻烦直接跳过。

 

二、企业级运维安全体系

 

安全体系是一套很大的概念。从流程规范,到技术架构,不是本文所能解释清楚。因此,下面所探讨的企业级运维安全体系,会把我接触到的或者已经落地的方案大体介绍一下,涉及到其中的具体落地,则待以后再撰文详细讨论。

 

首先,整套运维安全体系,其实属于企业安全体系的一部分,所以大体上思路不会相差太多。其次,运维安全,更关注的是“运维”,所以像业务风控、反欺诈、app反编译则不在考虑范围之内。下面让我们一同看看一套完整的企业级运维安全体系长什么样。

 

1、流程规范
 

 

运维规范如同人间法律,“人生而自由,却无往不在枷锁之中”。这套规范,不仅是约束、指引运维人员,也是约束、指引开发测试人员,以及围绕生产活动的所有参与者。

 

培训

 

此处的培训不是安全部门做的员工安全意识培训所能替代的,也不是针对开发测试人员举办的研发安全培训,而是只面向运维人员的意识与技术培训。就比如本文前面的安全陋习和安全习惯,就可作为意识培训的蓝本。而后面所讲的技术体系,则可作为技术培训的基础。这类培训可以放在校招培训课程里,也可以放在部门沙龙讲座里讲。

 

审批+审核+评估

 

首先,审核或者审批,不是为了阻碍业务发展,更不是为了没事找事,而是希望通过流程去减少或者避免人的因素导致忽略安全。所以权限申请要上级审批、功能开放要安全人员或者同组同事审核、功能上线要安全人员评估测试。

 

当然,实现的方式可以灵活多样,比如默认通过,可以根据产品或者业务需要开启审批、审核机制,然后把评估机制放在业务上线流程中,只有通过评估才能上线。在安全部门比较强势或者相对重视安全的企业,相信以上机制都落实的比较到位。

 

安全报表

 

安全可视化、数据化非常重要,是体现安全价值的形式之一,因此通过与企业SRC或者安全部的对接,可以获取运维相关的漏洞、安全事件统计数据,然后根据内部需求进行二次处理、通过定期报表的形式发给运维人员或者部门领导甚至技术负责人查看,让他们了解运维安全态势。这种做法通常能让他们看到安全不足,从而让大家从数据得到警示,或者获得上级关注,使得获得更多的资源或者实现自上而下推动安全规范落地走向可能。

 

流程规范的落地包括但不限于以上几点,但我觉得这几点是最重要的。

 

2、技术体系
 

 

访问控制

 

安全域划分下的网络隔离

 

  • 网络层:192.168分为办公区、办公服务区与开发机网,部分隔离;10.x分为IDC物理内网、IDC虚拟内网与公有云虚拟内网,通过IGP互通,可申请端口映射外网;公网IP仅用于业务外网,开发测试环境禁止使用公网环境!

  • 系统层:装机镜像默认开启防火墙,仅开放ssh、rdp管理端口。ssh一律采用公钥登陆,禁止启用密码认证;按角色授权系统权限。

  • 应用层:数据库、缓存类应用部署在内网IP,管理接口禁止对外开放,按最小权限原则授权。

 

统一出入口级访问控制

 

  • 建设IDC级别统一入口,结合NAT网关实现出入向访问控制

 

目前BATJ都有自己的企业级GW作为统一应用层入口,同时使用NAT网关走出向流量。GW的实现开源方式不少,一旦作为企业级GW仍需自研。而NAT网关,则可采购具备API功能的分布式硬件防火墙或者自研NAT网关,解决IDC内网出向流量RS直接回外网时无外网IP的问题,或者服务器直接对外发起请求的情况,然后再采用统一系统管理。目前业界多有分享,相关思路不难找到。

 

  • 敏感端口访问控制

 

一旦有了统一的出入口,整个生产网就像办公网一样,可以对外屏蔽敏感端口访问,对内限制出向流量,在风险缓解和攻击阻断上行之有效。

 

应用层访问控制

 

通过WAF防刷、限流是一种通用方案,如果没有WAF的可以应用的acl自行进行控制,比如nginx的limit_rate或者haproxy的acl。

 

堡垒机与VPN

 

  • 使用堡垒机可实现运维入口统一化,也能做到集中访问控制和审计。

  • 在登陆堡垒机时也需要拨入VPN,目前应用比较广泛的有IPSecVPN以及SSLVPN,像OpenVPN则部署维护简单、服务端较为灵活以及客户端支持丰富等优势目前被广泛应用。

  • 服务器ssh端口或者业务管理后台也可只对堡垒机与VPN Server开放白名单

 

基线审计与入侵检测

 

我认为基线审计与入侵检测是两个不同的概念,前者在于事后审计,看合不合格;后者在于事前预防与事中检测响应。在具体落地上,基线审计通常依赖堡垒机,入侵检测通常依赖安全agent。

 

堡垒机

 

通常堡垒机有访问控制、日志审计、操作行为审计、数据上传下载审计以及权限管理等功能。但系统补丁更新与应用版本更新等操作则不是堡垒机所能覆盖的。

 

对于堡垒机的落地,采购设备倒是其次,重点在于整合整套运维体系,对于有些年头的企业改造成本太大,而且大家也担心其性能与可用性。

 

安全agent

 

当然,前面说到的系统补丁更新与应用版本更新,都可以交给安全agent去做。入侵检测、基线审计,安全agent可全面覆盖。但因为要跑agent,通常没有愿意商用入侵检测系统跑在自己机器上的,如果自研则开发周期长,还会引起业务的担忧:服务器监控agent、数据上传agent等等之外还要再跑安全agent,万一agent崩了会不会引起雪崩?说到底,要取得产品的信任,还得自家底子够硬。

 

那么,什么样的解决方案才能众口皆调呢?在google提出beyondcorp之后,问题可能有了转机,那就是把使用轻量agent采集信息,把计算、分析、决策交给大数据后台。

 

当然,我们很难像google那样基于rpc协议去做访问控制、身份认证,那么在传统的堡垒机、vpn方案之上,结合轻量级agent,可能是一种更好的方式。

 

不过还是上面那句话,如果自家底子够硬,能取得大家信任,那就另当别论。

 

漏洞扫描

 

目前大中型企业谁没有自己的漏洞扫描器,不会开发购买商用的总行吧?但我觉得可能有个通病,就是漏洞扫描器做的太重。如果可以解放思路,或许可以尝试从扫描器的定位重新出发,在效率、覆盖面上进行选择,比如大型扫描器专门做周期长的、要求覆盖面广的扫描,而轻量级扫描器则定位于高效、定向扫描。

 

现在不光是waf在结合机器学习,漏洞扫描器也可以结合机器学习或者大数据分析,根据扫描日志或者已有的经验,做策略的自动生成,实现扫描规则的轻量化与精准化。

 

CI/CD安全

 

CI/CD是运维的重要一环。在CI/CD上出现的安全漏洞也多如牛毛。下面我们从如何安全的发布和应用部署来讨论。

 

敏感信息泄露

 

我们都知道发布代码应排除:源码文件和临时文件,如.py、.cc、*.swp(vim临时文件),上传版本管理相关的信息文件(如.svn/.git),以及打包/备份文件(如.gz/.bak)。这看起来更像是一种规范,其实不然,通过在代码分发系统增加钩子或者过滤模块,是可以提前发现敏感信息的上传的。比如代码提交了ssh私钥或者账号密码配置文件,只需要一个webhook就能检测到。实现上的成本与出问题付出的代价相比,其实不算什么。

 

代码或镜像的安全审计

 

随着Docker容器技术的广泛应用,CI/CD安全的落地更加充满希望。我们都知道,使用Docker容器需要经历编写dockerfile/docker-compose文件,docker build之后才有镜像,然后再docker pull、docker run部署服务,实际上可以结合Jenkins等CI/CD工具调CoreOS官方的Clair镜像安全审计工具进行漏洞扫描。此外,当然还有RASP等Runtime机制的动态检测机制,也有foritity或者Cobra等或商用或开源的代码审计工具,也可以结合使用。

 

认证授权

 

认证授权机制这块,主要分享的思路如下:

 

  • SSH不允许用密码登陆,必须用公钥登陆;

  • 建立个人帐号的概念,必须做到一人一个帐号,不允许多个人共用一个个人帐号;

  • 公共帐号要和个人帐号分开,不允许直接登陆;

  • 口令安全需要注意复杂度校验;

  • 无法通过网络层或应用层进行访问控制的,应增加认证授权机制;

  • RBAC:根据角色授权;

  • 最小权限原则:禁止给业务配置root/admin级别的数据库账号,根据业务需求授权相应权限;

  • 白名单机制:同时限制root/admin级别的数据库账号仅能通过白名单ip访问,如存在默认账号密码应同时删除;

  • 认证信息管理:说到Docker容器这块,目前Kubernetes提供了ConfigMap,可以用于传递认证配置路径或者其他间接变量,用于计算认证信息。也可以用Hashicorp Vault进行认证信息管理。

 

DDoS防御

 

DDoS防御按照网络架构,可分为云清洗或者IDC清洗两种模式,前者通过DNS或者反代将目标IP替换成云的VIP的方式引流,对应的防御流程分为:流量分析→流量采集流量压制等几个步骤。

 

后者通过路由牵引模式引流,对应的防御流程分为:流量采集流量分析流量牵引流量压制等几个步骤。

 

下面从流量采集、流量分析、流量牵引和攻击阻断与过滤简单介绍一下。

 

流量采集

 

  • 云清洗

    DNS:通常是Web服务,使用域名对外提供服务,只需要将dns A记录指向高防或者清洗VIP,或者dns cname到云清洗域名即可。

    反向代理:配置反代,通常用于那些拿IP直接对外提供服务的,比如游戏。

  • IDC清洗

    流量镜像/流量分光:这种方式要求IDC机房部署清洗或者高防集群,通过在网络设备上镜像流量或者分光拿去做异常流量检测。

 

流量分析

 

  • 数据包捕获和抓取、数据包分析、会话还原和重组:实际生产环境中建议用nDPI+PF_RING实现,当然,Intel DPDK技术也很成熟了,后者目前也越来越流行。

  • 应用层协议分析:据了解有公司使用Bro解析流量,测试结果显示峰值几十Gbps性能也还扛得住。当然,Bro也可以用PF_RING配合性能加速,也有插件可吐给Kafka分析。

  • 通过这里的流量分析识别出异常数据流,然后触发报警,进行下一步操作。

 

流量牵引

 

这个只针对IDC清洗有效,通常是清洗设备与IDC出口设备建立BGP协议,清洗设备向IDC出口下发牵引路由,那么,流往目标IP的所有流量都会被先送到清洗设备进行过滤。

 

攻击阻断与过滤

 

攻击阻断主要是黑洞路由,流量过滤主要使用适配清洗算法以及各种算法阈值,由此区分正常流量与异常流量,之后丢弃异常流量,回送正常流量。

 

数据安全

 

数据安全层面,最好是和开发、业务安全联合规划设计方案。通常运维安全所能覆盖的是访问控制、认证授权、备份、加密等。

 

  • 访问控区分数据敏感程度,实行不同程度的访问控制。但是应当严格按照db放置于内网的原则。

  • 认证授权:基于RBAC进行授权。如果是比较成熟的db或者大数据集群,还可以使用动态计算权限、动态下发权限的方式,做到有需才授权、用完就回收。

  • 备份:本地备份与远程备份,是业务需要决定是否加密备份。

  • 加密

    传输:通常使用https实现通道安全。关于https有2个最佳事件——

    a.证书采购:开发测试环境或者非重要业务可以使用免费SSL证书Let's Encrypt,该方案支持全自动签发、续签,通过交叉证书实现了对大多数客户端环境的兼容,此外可以使用https://www.ssllabs.com/进行站点安全扫描与兼容性测试。

    b.证书部署:针对站点接入CDN需要把证书私钥放在CDN,或者tls握手环节消耗服务端性能可能影响业务的问题,可以使用cloudflare的keyless方案,将计算压力转移到专门的集群,该集群可以使用Intel QAT硬件加速,同时在协议层面做针对性优化,从而实现压力转移与性能优化。

    存储:这里基本上是开发层面或者业务安全层面考虑,但是如果由运维安全去做,则通常只是在文件系统层面进行加密而已,比如使用企业级方案ecryptfs。

  • 脱敏:开发测试人员需要从备份数据或者日志中拉数据进行它用,此时需要注意脱敏。通常采用替换、增删字段、去除特征以及去除关联性等方式。

 

安全事件应急响应

 

下面是一个通用的安全事件应急响应流程,很显然运维人员、安全人员需要配合很多工作,其中需要注意的有:

 

 

  • 保护现场,备份数据;

  • 联系产品评估影响范围;

  • 确认能否先封iptables限制外网访问;

  • 确认被黑机器接入基线审计与入侵检测情况;

  • 确认是否有数据泄露、机器被root,加了异常用户、异常进程、crontab,开放异常端口;

  • 确认被黑机器是否有内网ip,查看监控核实是否被作为跳板机;

  • 创建运维工单,跟踪和复盘漏洞发生与处理情况。

 

3、外部合作
 

 

运维安全,首先是运维。日常工作中与IT、安全和网络部门关系都十分密切,保持与兄弟部门的良好沟通和信息共享非常重要。下面我们探讨一下与他们合作的可能性。

 

与IT部门

 

主要是办公网安全,尤其是NAC:网络接入系统,通常是IT维护,但由于历史原因或者技术支持的需求,NAC可能需要运维安全人员提供技术支持,比如前面提到的VPN服务。

 

与安全部门

 

运维安全属于安全的一个分支,不在安全部门管理之下,但其与安全部门的联系极其密切,可以说无论是业务安全,还是运维安全,都是“站在巨人之上”。

 

  • 安全部门提供基础设施如DDoS防御系统和对外统一接口如SRC等;

  • 安全部门提供SDL支持,运维与产品部门的联系较安全部门更为密切,很多时候需求先到运维,才到安全,所以通过运维安全一起推动安全培训、安全架构设计与落地、渗透测试等工作也不少见;

  • 相对应的,运维安全也能根据运维部门和产品具体情况实现精细化的漏洞运营,同时推动漏洞高效修复。

 

与网络部门

 

很多企业的运维和网络很长一段时间都是放在同一个部门之下,即便拆分出来之后,两者合作也是最多。对于运维安全而言,在访问控制和DDoS防御上非常需要网络部门支持。

 

  • 访问控制

    如网络隔离和统一出入口访问控制的落地。

  • DDoS防御

    网络打通、流量采集与包括ip资产信息在内的数据共享。

 

我们从运维安全的概念入手,强调了运维安全困境导致了我们的重视,也从安全意识和基础架构建设上剖析了导致该困境的原因,然后就事论事,希望通过运维安全意识培养、运维安全规范以及运维安全技术体系的建设,来保障一套完整的运维安全体系的有效运转,为业务发展保驾护航。

 

本文源于一次内部培训,从构思到成文,前后花了几周的时间,中间断断续续,勉强成文。囿于笔者的认知能力和技术沉淀,以及文章篇幅限制,可能很多地方说得不够清楚或者存在错漏。再次抛砖引玉,希望得到大家的更多指点。同时,也希望借此文刷新大家对运维安全的认识:运维安全,没那么简单。

最新评论
访客 2024年04月08日

如果字段的最大可能长度超过255字节,那么长度值可能…

访客 2024年03月04日

只能说作者太用心了,优秀

访客 2024年02月23日

感谢详解

访客 2024年02月20日

一般干个7-8年(即30岁左右),能做到年入40w-50w;有…

访客 2023年08月20日

230721

活动预告