本文根据黄杰老师在〖2019 Gdevops全球敏捷运维峰会-广州站〗现场演讲内容整理而成。
(文末可获取完整PPT)
讲师介绍
黄杰,前饿了么框架工具部监控平台负责人。2015年加入饿了么,负责整个监控平台的构建及周边工具链的建设。之前曾在携程、eBao等多家公司工作,在监控、消息系统及大数据等领域积累了丰富经验。
分享概要
1、背景
2、遇到的问题
3、场景化
4、系统设计
大家好!很荣幸有这样的机会和大家交流,今天分享的主题为《饿了么监控体系的演进》。
我差不多是2015年中加入饿了么,主要是负责饿了么整个监控平台的搭建,从0开始搭建这套监控系统。
今天主要从以下四块给大家讲一下,整个过程我们遇到了哪些问题,怎么来解决这些问题,以及用怎么样的设计来支撑起这个系统。
一、背景
其实整个饿了么监控系统在演进过程中主要分为如下3个阶段:
第一阶段:主要由Statsd/Graphite/Grafana负责业务层的监控,ETrace负责全链路监控,Zabbix负责服务器层面的监控,ELog负责分布式日志搜索;
第二阶段:整个饿了么也从单IDC演进成异地多活架构,所以对监控也提出了更高的要求,基于这个我们也自研LinDB,以支持多活架构下的监控,Zabbix慢慢被ESM/InfluxDB/Grafana所替换,使用ELK替换原来的日志方案;
第三阶段:主要做一个减法,即把原来StatsD/Graphite/ETrace/ESM/InfluxDB统一到了EMonitor+LinDB这样的平台,以提供给用户一套统一的监控平台,日志开始使用阿里云的SLS;
二、遇到的问题
在这过程中我们主要遇到了哪些问题,然后我们怎么去解决这些问题。
之前也介绍了原来有多套监控系统,当出现问题的时候,需要从多套监控系统里面回来切换,其实这种上下文的切换是很影响定位问题的时间,一旦故障时间很长的话就意味着故障的影响范围也会变大。
那我们怎么来解决这个问题呢?
我们希望有这么样一套系统能针对于任何人员快速上手。围绕着快速发现问题和快速定位问题这两个点,来构建这套系统。
其实监控也可以像业务架构一下进行分层,如上图,可以分为,业务监控,应用监控,PaaS层监控及IaaS层监控。
不同用户在每一层的视角是不一样的,但是如何把各层的数据串联起来是一个关键点。
再结合Logging/Tracing/Metric三者的关系,我们是通过Tracing把上面各层的关系给串联起来。
最终,我们提供了一套一站式的监控平台,同时支持PC和Mobile 2个平台。
三、场景化
首先,我们来看一下业务监控,很多公司的业务监控都是用Grafana来做可视化,饿了么原来也一直用Grafana,现在已经全部使用EMonitor。
相比Grafana,EMonitor会更多的与别的监控集成,如一个业务监控有问题,点击一下有问题的曲线就可以到相关的应用监控,也可以比较方便的也报警配置集成。同时所有的Dashboard都与具体的业务线有关。
同时系统也是自动的集成发布及报警事件,如果与相关曲线有关的应用有报警或者变更,就会直接在图上画上红线(报警)和绿线(变更),这些使用都不需要额外的操作,都是系统自动完成的。
40%~50%的事故都是与变更有关系,这样当有变更导致的问题可以直接在监控上看到,马上回滚解决问题。
说完业务监控,我们再来看一下应用层监控,这块主要依托于全链路监控,主要用于问题的定位。
大家可以看到,这块基本上覆盖了整个应用所有内部及依赖的监控,而且这些基本上都使用方是透明的,使用方只需要使用我们部门提供的基础服务就可以了,会在这些基础的SDK进行监控埋点。
同时,有时直接放一个当前的监控数据,很难反应问题,因为不知道相比之前是变好了,还是变差了,所以我们会对所有的监控曲线都做同比和环比,这样就可以直观的反应问题。
接下来我以几个日常排障中使用比较多的功能介绍一下。
首先来看一下,错误异常。
基本上当出问题的时候,大家都会上来看一下有没有报异常什么的,针对于异常我们也增加了当某个异常出现的时候,到底影响了哪些接口的请求,以方便业务方做判断。
再来看一下SOA相关的监控,SOA会反应当一个服务有问题的时候,是自身有问题还是依赖的服务有问题,可以看到一个服务的RT,成功率,及哪些调用方等。
那么当应用所依赖的基础设施有问题的时候,怎么办呢?
其实这部分可以分两部分来看,一部分是Client是不是有问题,还有一部分是Server端有没有问题,因为有了Client的访问数据,所以就可以很方便的知道这个应用使用了哪些基础设施,这些基础设施有没有问题。
这里主要讲一下数据库,因为日常来说业务开发跟数据库打交道是非常多的,所以我们在DAL这层做了很多监控,基本上做到了针对每条SQL都做了监控,可以看到每条SQL的RT,成功率等。主库怎么样、从库怎么样。
针对IaaS层的监控,我们自研了一套监控系统,来采集服务器CPU/Memory/Network等数据,同时也支持使用方根据自己的需求来写自己的Plugin来采集数据,如怎么来监控Redis/MySQL等。
说了这么多,基本上都是监控图表,那么怎么来查看日志呢?
其实这个是整个系统的另外一个亮点,应该所有的这些图表都是可以支持下钻的,如发现有问题,只要鼠标点击一下就可以看到对应的日志。
四、系统设计
系统从原来的Pipeline慢慢演进成类似Lambda架构;
支持多IDC,每个IDC都会部署红色框里面的组件;
全量日志,通过指标+采样的方式;
支持Java/Golang/Python/PHP/C++/Node.js;
所有监控数据计算窗口为10S;
自研+开源组件构建了整套系统。
针对于数据的处理计算,我们自研了一套计算平台Shaka也支持所有监控数据的清洗及计算。
基于CEP(Esper) 实现类SQL的计算;
非结构化的数据转换成结构化数据;
UDF处理异常数据分析及采样。
最后介绍一下,支撑起所有监控数据存储的自研时序数据库 - LinDB。
采用Metric + Tags + Fields方式;
基于Series Sharding,支持水平扩展;
自动的Rollup,s->m->h->d;
高可靠性,支持多副本,支持跨机房;
自监控,数据治理;
列式存储,具有时序特性的LSM存储结构;
倒排索引。
目前的数据量如下:
36台服务器,分不同集群;
每天增量写入140T;
高峰TPS: 750W DPS/s;
10S存30天,历史可查2年以上;
磁盘占用50T (压缩率在60倍左右);
查询P99:500ms ~ 1s。
这块我们目前也在做开源版本,如果对这块有兴趣可以关注我们:
https://github.com/lindb/lindb
https://lindb.io/
今天的分享就到这里,最后为一直在监控领域奋战的同学打一下气,做监控真的很有意思,接触的面也很多,面对大数据量冲击的同时,还需要考虑产品层的沉淀。
PPT下载链接:https://pan.baidu.com/s/1djJB8Sr2Gc_btnjPDgPncg
如果字段的最大可能长度超过255字节,那么长度值可能…
只能说作者太用心了,优秀
感谢详解
一般干个7-8年(即30岁左右),能做到年入40w-50w;有…
230721