《尽在双11 阿里巴巴技术演进与超越》读书笔记

《尽在双11 阿里巴巴技术演进与超越》读书笔记

《尽在双11 阿里巴巴技术演进与超越》

系统稳定

全链路压测

第一,通过抽取电商公共元素,沉淀共享服务(服务化架构);

第二,形成一套支持互联 业务的中间件;

  • 1. 分布式服务框架HSF;
  • 2. 分库分表TDDL(Taobao Distributed Data Layer);
  • 3. 将一个事务里的工作拆成了异步执行;
  • 为了解决业务扩展性问题,通过抽取共享服务层;

    为了解决技术扩展性问题,引入了分布式中间件技术;

    灰度切流,数据比对;

    动态发布,实现业务模块级别的变更和替换;

    通过将系统分解为单一职责、高内聚、松耦合、独立部署、自主运行的微服务,可以极大提升系统的灵活性与扩展能力。

  • CSP:Continuously Stable Platform,持续稳定性平台,为线上应用稳定运行提供一系列的保障。
  • QPS:Queries Per Second,每秒查询率;
  • BCP:Business Check Plaform,实时业务审计平台,成为阿里资损防控的重要基础设施;
  • GMV:Gross Merchandise Volume,电商成交金额;
  • 线上压测评估容量

    1. 线上模拟压力测试,获取单机能力阶段;

    2. 线上流量复制压力测试,获取单机能力阶段;

    3. 线上引流压力测试,获取单机能力解决阶段;

    4. 全链路压测阶段(2013以后);

  • 压测流量标识;
  • 线上数据的安全性和完整性不能被破坏;
  • 在所有写数据的地方,对压测流量进行识别,判断一旦是压测流量的写,就写到隔离的位置,包括存储、缓存、搜索引擎等;
  • 通过创建隔离环境并修改系统时间,观察核心交流链路上的功能可用性;
  • 在隔离环境的数据层TDDL(淘宝分布式数据层)和Tair(key/value 结构数据存储系统)上增加异常流量拦截功能,避免产生脏数据;
  • 线上故障演练

    平时多流汗,战时才能少流血;

    故障演练以一种破坏性的方式,通过不断试错去检验和淬炼系统,从而确保全局的稳定性;

    系统自我保护

  • 限流
  • 自动降级(自动降级需要对链路进行强弱依赖梳理,了解这个链路上哪些环节是可以降级的。)
  • 流量调度
  • 负载保护
  • 预案
  • 技术拓展商业边界

  • 要做最懂商业的技术团队;
  • 善用数据、预测需求、合理备货、协调仓配、降低成本、提升服务,形成良性的业务闭环;
  • 供应链技术团队,着手解决供需匹配和后端履行等一系列核心问题;
  • 赋能业务
  • 电子面单系统

    能在商家与快递公司直接建立起一个快速的信息传递和作业通道,把商家发货与包裹物流链路信息全部打通,提高双方效率,赋能商家与快递;

    中间件产品

  • 分布式服务框架Dubbo
  • 分布式数据库中间件Cobar
  • 分布式队列模型的消息中间件RocketMQ
  • 分布式缓存Tair
  • Aliware中间件产品(6)

    1. 企业级分布式应用服务(Enterprise Distributed Application Service,EDAS),包括分布式服务框架HSF、服务治理、运维管理、链路追踪EagleEye和稳定性组件等。
    2. 分布式关系型数据库服务(Distributed Relational Database Service,DRDA),整合了TDDL和Cobar 分布式数据库;
    3. 消息队列(Message Queue,MQ),整合了阿里内部Notify、MetaQ和开源产品RocketMQ;
    4. 云服务总线(Cloud Service Bus,CSB),基于高可用分布式集群技术构建的服务API开放平台;
    5. 业务实时监控服务(Application Real-Time Monitoring Service,ARMS);
    6. 全局事务服务(Global Transaction Service,GTS)

    声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

    上一篇 2019年3月1日
    下一篇 2019年3月1日

    相关推荐