首页 > 计算机技术 > 12306与阿里合作,难怪今年没瘫痪
2015
01-17

12306与阿里合作,难怪今年没瘫痪


今年春运小伙伴们在12306购票,是不是觉得很少瘫痪了(虽然还是买不到票),据说是因为12306跟阿里合作了,把75%的余票查询业务放到了阿里云上。之前我们就经常讨论,阿里能抗住双十一、双十二的巨大压力,要是12306给阿里做肯定问题不大,现在终于是跟阿里合作了,12306确实改进了不少。下面是15日阿里的工程师在知乎网上透露的部分合作细节,其实12306也不容易,一个如此巨大的系统,又有这么多“拖后腿”但又不能重构的子系统,看完,我们应该更理性地看待12306,多理解下,世上不可能有完美的系统,只有不断完善的系统。

12306与阿里合作

该用户在回复中写到:“今年初双方团队就已开始讨论如何将余票查询系统放到云上,十一黄金周期间进行了测试,到春运售票高峰12306最终将75%的余票查询业务放到云上。”

全文转载如下:

不邀自来,果断匿名。

利益声明:阿里云程序员,今年12306春运项目幕后码农。

仅代表个人,尝试从技术的角度对12306做一些抽象的归纳,包括12306与云计算的技术相容性,对项目谈一些感受。不涉及具体数字和系统架构细节,对铁路业务运营不做评论。

先亮明基本观点,不喜请绕路:

1、从技术上看,不是说做好了阿里双11就能做好12306

2、12306的亮相是惨了点,但这两年一直在改进

3、12306一直在尝试引入外部技术力量解决问题,租用公有云算其一吧


我初次使用12306是到北京旅游,返程票是在12306预定的。当时是拿到一个订票号码之后再去西直门付款取票。客观来说,这两三年12306的便捷程度已经有很大提升。

每年春运,12306都会被推到风口浪尖上,也不断有“高人”放出豪言壮语,可以非常迅速而廉价的开发一个新的 12306出来。我记得大约4年前招聘工程师的时候,也经常遇到有人断言可以3个月内开发一个完整的淘宝系统。对于这种口炮党,我只能说:呵呵。。。

铁路运营是一个庞大的社会工程,每年春运,相当于把全国人口“搓一圈麻将”,如果在这个节点去网点排队买票,相信绝对是一件让所有人头疼的事情,这不仅是用户体验差的问题,同时也是对社会资源的巨大消耗。

收一下,回到技术层面——

在互联网售票之前,网点售票已经实施多年。换句话说,铁路售票实际上一直有一个相当庞大且复杂的、跨多个路局的信息系统在支撑,而且可以追溯到80或90年代,维护至今。这个系统也许不仅支持了售票,可能还包括调度等核心业务。那这里就有一个问题:在做互联网售票的时候,是否要重构一下原有的系统呢?

这个问题值得反复掂量。大家应该知道,彻底重构一个运行数十年的系统的开销和风险吧,粗略一想涉及到各种业务逻辑、软硬件供应商、版本与维护协议等等。

绝大多数的互联网技术同僚应该会倾向于在现有系统上做web前端,先让系统“用起来”,然后再集中技术力量逐步优化整套系统架构。这也是当时12306的选择,这就导致有很多历史的包袱,还要考虑线下售票系统。


知乎上很多人拿春运售票和我厂双11比较,究竟哪个牛逼?

个人感觉两者同属于重量级的网站业务,双11在业务规模上更有挑战,而12306则在业务复杂度上更高。

火车票跟很多票(包括淘宝天猫的商品、机票、体育场馆门票等)有不一样的属性。比如,从北京到广州,沿途有多个站点,理论上乘客可以选择任意 一段区间购票,所以每买一张区间票,可能同时裂变出多张区间票。这个逻辑比大多数电子商务系统要复杂的多。关于这一点,这里有一个更夸张的分析,有兴趣请参看:

从嗤之以鼻到“奇迹” 前淘宝工程师详解12306技术。

购票差异还不仅限与此。假如说要再添加一些更人性化的feature,比如根据订票者身份证里的年龄优选上下铺、优选号等,那么查询和出票逻辑就更复杂了。

在一个后端上,setup一个web前端(包括入口、安全、缓存和逻辑,非指web页),这个挑战也是巨大的。因为这个前端很容易瞬间胀大, 甚至被撑爆。“撑爆”的概念不难理解,奥运会的订票高峰,中美海底光缆拥塞,包括杰克逊去世后瞬Google瘫痪,或者DDoS拒绝服务攻击,都是这种现象。

根据官方公布的数字,有人统计了一下:需要数千个pv,才能出一张票。这个说法并不能得出“出票效率低”的结论,但是恰恰很形象的说明了查询量的巨大。

为什么12306查询量会这么大呢?因为淘宝的秒杀抢不到就算了,运气不好下次再来过;火车票的购票心理则不同,“求之不得,梦寐思服”,特别是高峰期的票。而买到票的人也不一定满意现在的车次、时间。总之,就是一个字:刷!刷!刷!

当然各种抢票工具的泛滥,也是让查询量猛增的原因之一。不过,从另一个角度看,能让这些工具都被用户用起来,这也证明了系统处理能力的大幅提升。

===洗====地===结====束=====

上面说了,天量的火车票查询是影响12306性能的重要原因之一,大概占了90%以上的访问流量。更棘手的是:峰谷的查询有天壤之别,几乎没有办法在成本和并发能力之间做一个好的平衡。以往的一个做法是从几个关键入口流量控制,保障系统可用性,但是会影响用户体验。

淘宝/天猫大促的时候,也会增加服务器,阿里的业务盘子大,这些新增的机器很快会被其他业务(包括阿里云)消化掉,可能还不够。但是对于 12306来说,就比较难做到这一点。

这成为今年12306与阿里云合作的一个契机:通过云的弹性和“按量付费”的计量方式,来支持巨量的查询业务,把架构中比较“重”(高消耗、低周转)的部分 放在云上。这是一个充分利用云计算弹性的绝好实例,也是在系统架构上做“轻重分离”的一个典型case,把小而精的核心业务系统保持不动,把 “傻大笨粗”(非贬义)的系统迁移到云计算上。

今年初我们和12306的技术团队开始讨论如何将余票查询系统放到云上,十一黄金周做了测试效果不错,到春运12306决定将75%的余票查询业务放到云上。

同意@xLight的说法,云计算不是万能的,12306的业务系统很复杂。目前我们能看到的是,在提升余票查询能力方面,云计算可以快速部署应用提供服务,通过分钟级的扩容操作,实现十倍、百倍的服务能力扩展。


做这个项目一晃有小半年了,感触很多。大家知道双11对阿里技术团队是一个不小的挑战,我参加了4年,其中有两年过的尤为艰苦。当时技术团队经常被业务方指责,就像现在大家对待12306的态度一样。但客观说,双11大促推动了阿里的技术成熟,春运也推动了12306采用更多面向未来的技术。

最后引述一段12306工程师回顾系统刚上线时说的话:

12306是个互联网新人,又或者被称为“富二代“,它长得很丑,也很傻很瓜,身体还很弱…所以第一次露脸它就演砸了,那天全中国互联网大佬和网民都盯着它看,基本上全中国的网友都涌入它的家。那天它宕机了,同样是那天骂声如潮……其实我们知道,他们骂的不是12306,他们骂的是这个时代。


回答几个问题:

为什么是余票查询?

1. 访问量巨大,占12306整个网站流量的90%以上,业务高峰期并发请求密集,性能要求是整个业务系统中最为重要的一环;

2. 与其他业务在逻辑上相对独立,使用云计算的话不需要对整个网站的业务架构做改造。

实施过程可否透露?(隐去部分敏感信息,请理解):

1. 把余票查询模块和12306现有系统做分离,具备独立部署的能力;

2. 在云上独立部署一套余票查询系统。这样子12306和云上都有了一套余票查询系统,,调度更为灵活;

3. 一些安全措施,吧啦吧啦吧啦……

根据运行情况,云上的余票查询与12306原来的余票查询可以互相补位,根据实时的负载情况,来调配不同的访问比例,充分利用云的弹性。

云计算跟“堆硬件”有什么区别?

这里主要是"春运 vs 平时"、"业务量 vs 成本"的问题:

1. 传统IT方案,为应对春运的业务压力,需要按照峰值采购大量硬件设备,从规划、建设到投产、服务整个供应链条长成本高,capex和opex上的投入都比较大,很难精确把控,而春运后大量设备会处于空闲状态,利用率低,造成巨大的浪费。

2. 还有至关重要一点是,假如按照传统方案,在实际业务峰值超出了初始评估量时,服务将面临无法完全承载而瘫痪,因为为大规模服务器的采购、交付、部署到应用上线所耗费时间以月计,根本无法在业务量激增时"即插即用"。

3. 云本身就比自己买硬件要便宜,另外所有资源都是“按量计费”,从十一黄金周到春运的过程里,12306在云上做了两次大型扩容,每次扩容的资源交付都是在分钟级就完成。业务高峰结束后,可以释放掉不必要的资源,回收成本


文章部分来自知乎