监测:上海压力指数10分钟变黄
在全民疯抢的着魔氛围下,记者也将稿子丢到一边,迅速前往天猫购物车扫货。刚到下单环节系统就提示称“堵车”,在反复刷新2个15秒、1个30秒等待时间后,记者终于杀入支付页面,但依旧被告知因流量过多而需等待。直到1分钟后,手机终于才收到付款成功的通知。
在巨大的数据屏上,除了不断跳跃的交易额外,另外四块小屏则分别记录着全国各地的物流发货情况、前十名的省份图、来自各国气象局的天气卫星云图、以及境外交易状况。激动的阿里工作人员则手持麦克风,像讲解球赛般不断播报着最新的进展。 “你看,系统检测到广州某个路段发生了一起车祸,这可能会对珠三角的配送产生一定影响。 ”工作人员说,他们会根据全国每个地区网店的包裹量来计算物流压力,以绿点、黄点、红点的形式标注在地图上。记者看到,上海不到10分钟就变成了黄色。
后台:技术设两千闸门“泄洪”
今天凌晨1点30分,记者离场前,大屏幕上的数字翻跳到了61亿元。在微博、微信朋友圈,仍有不少乐此不疲的白领在晒单,继续等候2点那一波的秒杀。但忙碌的工作人员们仍在紧盯着电脑。今天,整个淘宝加天猫的在线商品数超过14亿件,相当于1000个义乌小商品城的总量。为防止出现像往年一样的突发性系统瘫痪,阿里今年调集了6万台云服务器彻夜工作,连起来可以排满50条南京路步行街。
“万一流量超出极限,我们还准备了后续的预案。 ”阿里公关部人士告诉记者,技术小二们提前设置2000多道“泄洪”闸门,小到旺旺头像降级不显示,大到区域交易限制,全力防止“大水冲了龙王庙”。
为了应对断网、断电等极端状况,阿里IT部门也已做足功课。 “就算机房被炸掉,其他机房也能迅速在短时间内回复系统运算。”其负责人笑言,今年天猫的后台缓存系统能支持9000万次/秒的查询量。 “你能想象9000万个服务员同时帮你拿货吗? ”令阿里方面心有余悸的是,去年双11零点开始的1分钟内,瞬间有1000万用户涌进天猫,相当于小半个上海的市民集体出动,今年有增无减。
“我们在全国布了上百个CDN节点、6500G带宽,可以支持数亿人同时点击天猫首页。 ”支付宝人士则透露,为防止支付环节拖后腿,其支付通道每分钟已能支持100万人同时埋单。从目前实际情况来看,除了最开始的几分钟,整体支付情况均比较流畅。













