麻将下载程序机除了1623还能控其它色吗

设计该系统初衷是基于描绘业务(或机器集群)存储模型分析代理缓存服务器磁盘存储与回源率的关系。系统意义是在腾讯云成本优化过程中量化指导机房设备扩容。前半部分是介绍背景对CDN缓存模型做一些理论思考。后半部分会实际操作搭建一个微型但是五脏俱全的分布式通用系统架构最后赋予該系统一些跟背景相关的功能,解决成本优化中遇到的实际问题

缓存服务器存储模型架构(背景):

腾讯CDN的线上路由是用户à分布于各地区各运营商的OC->SOC->SMid->源站。各个层级节点部署的都是缓存服务器来自用户的部分请求流量命中服务器,另一部分产生回源流量

随着业务带寬自然增长,用户端带宽增长假设业务回源率不变的情况下,磁盘缓存淘汰更新(淘汰)速率变快表现为以下业务瓶颈(iowait变高、回源帶宽变高,由于磁盘空间大小受限的缓存淘汰导致回源率变高)

为了说明这个原理。我们假设两个极端:一个是设备磁盘容量无限大業务过来的流量缓存只受源站缓存规则受限。只要缓存没过期磁盘可以无限缓存,回源流量只需要首次访问的流量所以这个回源量(率)只跟业务特性(重复率)有关系。另一个极端是磁盘极限小(归零)那么无论业务设置缓存是否过期,客户端访问量都是1比1的回源量假设业务平均的缓存周期是1个小时。那么这1个小时的首次缓存带宽(同一cache key的多次访问我们认为是一次)将是这个硬盘的所需要的空間。这个大小是合理的可以保证磁盘足够容纳业务的量。假设这个量达不到或者本来达到了,但是由于业务自然增长了1个小时内地艏次缓存带宽变多,硬盘空间也不够用

设备扩容是个解决办法。但是压测系统在这之前没有客观数据证明需要扩容多大设备。或者扩嫆多少设备没有进行灰度验证设备到位拍脑袋直接线上部署机器。我们在实验机器进行线上日志的重放模拟出存储模拟曲线,来指导線上机房合理的设备存储这就是建设重放日志系统的意义。

麻雀虽小五脏俱全的重放日志模型(总览)

这一章,我们定义了下列模块:

模拟日志服务器:下载线上某个机房的一段时间周期的访问日志一个日志存放10分钟访问记录。机房有几台机器就下载几份日志日志垺务器同时提供任务分片信息的查询服务。假设我们需要重放任务id为pig_120t的任务切片下图既为任务切片详情。

图2 日志服务器的日志分片文件

任务控制器:启动任务或者结束任务总开关任务分配均匀分配给具体的肉鸡和代理服务器。插入任务到Task Pool中收集服务端的实时总流量、囙源流量、总请求次数和回源次数数据并插入到回源率结果数据表。

肉鸡:轮询Task Pool的任务表如果有任务,则按照任务明细(时间、线上机房ip)向日志服务器请求下载该分片的日志重放请求到指定的代理服务器。

代理服务端:提供实时回源数据查询服务并且安装nws缓存服务器等组件,该机器等同于线上机房的软件模块

实时展示界面:可随时查看实时回源率和一些任务异常状态信息。

图3为客户端和服务端的互动图图4是任务控制端在任务进行中和其他模块的联动过程。

图3 肉鸡和代理服务端的架构

图4 控制端的任务联动过程

日志重放模型核心是┅个高性能压测系统但是需要添加一些逻辑:日志下载、日志分析重构、结果数据收集、数据上报展示。分布式系统核心是:是否做到叻可拓展、可恢复、简易搭建、容错、自动化以下内容会一一展开。

先说说高性能:在一个通用模型中我们模拟线上日志,这个系统偠做到高效、因为我们的重放日志速度要比线上的qps还要快机器的重放速度决定了分析结果的速度。同时更快的速度所需要的肉鸡资源哽少。笔者在python各个url请求库和golang中最终敲定使用了golang实现肉鸡。golang做到了和原生c+epoll一样快的速度但是代码实现容易多了。理论上我们对一台做过玳理端性能瓶颈分析线上日志比模拟日志更复杂,qps适度下降是必然的Golang这个客户端达到预期目标。

可扩展:在我们可能会随时增加模拟機器集群的肉鸡数量或者更多的闲置代理服务器资源加入压测任务。所以系统在可用机器数据表随时加入新的机器

图5 系统的动态可扩展

可恢复:分布式系统不同于单机模式。不能避免可能有各种故障有时候系统部分节点出错了,我们更倾向于不用这个节点而不是继續使用未处理完成的结果。即非0即1无中间状态。还有分布式系统网络传输延迟不可控所以压测系统设计了一套容错机制:包括心跳检測失败,自动在数据表剔除肉鸡服务端接口异常容错。超时过期未完成任务去除crontab定时拉取退出进程等。

简易搭建:使用ajs接口和批处悝安装脚本。自动化部署肉鸡和服务端配置dns解析ip(日志服务器,任务池、回源率结果所在的数据库ip)tcp time_wait状态的复用,千万别忘了还有一些系统限制放开(放开ulimit fd limit这里设置100000,永久设置需要编辑/etc/security/limits.conf)如果肉鸡有依赖程序运行库需要同时下载。在肉鸡机器下载肉鸡客户端和配置、在服务端机器下载服务端和配置下载定时拉起程序脚本,并添加到crontab定时执行以上都用批处理脚本自动执行。

在肉鸡客户端的设计中:读日志文件一行一条记录添加到消息管道,然后多个执行worker从消息管道取url执行模拟请求。消息管道传送的是一条待执行的日志urlIO消耗型程序指的是如果consumer执行访问日志并瞬间完成结果,但是productor需要对日志进行复杂的字符串处理(例如正则之类的)那么它下次取不到数据,僦会被管道block住另外一种是CPU消耗型程序,如果日志url已经预先处理好了productor只是简单的copy数据给消息管道。而consumer访问url经过不可预知的网络延迟。那么多个consumer(因为是包括网络访问时间consumer个数设计超过cpu核数,比如2倍)同时访问读端速度慢于写端数度。在对一个日志文件进行实验我們发现处理18w条记录日志的时间是0.3s,而执行完这些url的访问任务则需要3分钟那么很显然这是一个CPU消耗性进程。如果是IO消耗型的程序Golang有种叫fan out嘚消息模型。我们可以这样设计:多个读端去读取多个chan list的chan一个写端写一个chan。Fanout则将写端的chan循环写到chan list的chan中。

我们有时会做一个地理位置一個运营商的机房日志分析一个机房包含数台机器ip。合理的调度多个肉鸡客户端并行访问日志可以更快速得到合并回源率数据。

并行机淛经典的map-reduce,日志文件按机房机器ip纬度切片分发任务启动N个肉鸡同时并行访问,等最后一台肉鸡完成任务时归并各个肉鸡数据按成功請求数量、成功请求流量、失败请求数量、失败请求流量等方式做统计。同时用于和线上日志做校样这里的mapper就是肉鸡,产生的数据表峩们按照关注的类型去提取就是reducer。

简化的map-reducer(不基于分布式文件系统)map和reduce中间的数据传递用数据表实现。每个mapper产生的日志数据先放在本地然后再上报给数据表。但是数据表大小的限制我们只能上传头部访问url。所以如果用这个办法实现数据是不完整的,或者不完全正确嘚数据因为也许两台肉鸡合并的头部数据正好就包括了某肉鸡未上传的日志(该日志因为没有到达单机肉鸡访问量top的标准)。

那么如何解决这个问题呢根本原因在于汇总数据所在的文件系统是本地的,不是分布式的(hadoop的hdfs大概就是基于这种需求发明的把)如果是状态码緯度,这种思路是没问题的因为http状态码总量就那么少。那么如果是url纬度比如说某机房给单肉鸡的单次任务在10分钟的url总数据量达到18万条。只看日志重复数>100的肉鸡数据这样误差最大值是100*肉鸡数,所以对于10台肉鸡的机房只要是综合合并结果>1000。都是可信任的如果是域名纬喥,少数头部客户流量占比大多数带宽 这也就是所谓的hot-key,少数的hot-key占据了大多数比例的流量所以域名纬度时,这个时候可以把关注点缩放在指定域名的url列表如果本地上报给数据表的数据量太大,url也可以考虑进行短地址压缩当然如果不想弯道超车的话,需要硬解决这个問题那可能得需要hdfs这种分布式文件系统。

我们进行日志客户端系统需要向日志服务器下载此次任务所需要的日志(一般是一个机器10分鍾的访问日志)。首先本地日志会去任务服务器查询重放任务接着去日志服务器下载。如果该模拟集群是在DC网络组建那么下载一个10分鍾(约150M左右的文件)日志几乎在1两秒内搞定,但是如果这个分布式系统是组建于OC网络那么OC网络的肉鸡服务器要去DC(考虑机房可靠性,日誌服务器架设在DC网络)下载经过nat转化内网到外网,下载则需要10s左右如果为了等待日志服务器下载完,也是一笔时间开销

在分布式系統中,所谓的stream-processing和batch processing不同的是,数据是无边界的你不知道什么时候日志下载完。而batch processing的前后流程关系好比生产流水线的工序,前一道完成后一道才开始,对于后一道是完全知道前一道的输出结果有多少

所谓的流式处理则需要在前一道部分输出结果到达时,启动后一道工序前一道工序继续输出,后一道则需要做出处理事件响应后一道需要频繁调度程序。

broker):前一道的部分输出输入给消息系统。消息系统检测到是完整的一条日志则可以产生后一道工序的输入。这里我们会碰到一个问题下载日志的速度(10s)会远远快于执行重放这些ㄖ志的速度(3min)。按照一个消息系统可能的动作是:无buffer则丢弃按照队列缓存住,执行流控同步后一道工序和前一道工序的匹配速度这裏我们选择了按照队列缓存住这个方案。当然在一个严谨的分布式数据库设计message broker是一个能考率到数据丢失的节点。Broker会把完整数据发给后道笁序同时会把buffer数据缓存到硬盘备份,以防程序core dump如果对于慢速前道工序,可以进行综合方案配置丢弃或者流控。这里消息broker不同于数据庫他的中间未处理数据是暂时存储,处理过的消息要清除存储

当然:现实中的生产线的分布式系统会远比这个复杂,但是本文实现的從0到1的迷你麻雀分布式系统有一定的实践意义它不是一蹴而就的,不断地版本迭代当然该系统也完成了作者的kpi-存储模型分析,在中途遇到问题时进行的设计思考和改良,在此总结分享给大家

我要回帖

更多关于 麻将下载 的文章

 

随机推荐