全程软件测试实践
Infoq已经发表了文章(http://www.infoq.com/cn/articles/whole-software-testing-practice-requirements-to-operational),这里把原文公布下:
之前一篇文章《软件测试转型之路》
(http://www.infoq.com/cn/articles/transformation-way-software-testing/)介绍过转型的一些实践,下文将介绍从2011年3月至今,持续改进的全程软件测试实践活动。
1 全程软件测试图解
传统的软件测试,可以简单描述为下图所示:
图-1-传统交付测试
开发人员完成任务之后,最后交付给测试人员,这种模式下,测试人员不能及早发现需求阶段的缺陷,同时测试工作的开展也滞后了,产品质量得不到有效的过程控制和分析,总体进度可能会由于返工问题造成拖延。
那什么是全程软件测试,如下图所示:
图-2-全程软件测试图
在整个SDLC中,三条角色主线和四个阶段。
三条角色主线:开发、QA、测试,文中主要讲解测试。
四个阶段:需求、开发、发布、日常运营。
简单来说可以归纳为下图所示:
图-3-全程软件测试概述
测试人员贯穿这四个阶段,开展测试活动,测试实践活动简单描述如下图所示:
图-4-测试实践活动
每个阶段也有开发人员对应的活动,以及QA人员对应的活动。
对于产品而言,每次版本迭代,都会经历:需求、开发、发布,最后推向日常运营,发布阶段虚线指向的需求阶段和日常运营阶段,并不是一个终止阶段,而是不断迭代的过程。
那测试人员是如何开展全程软件测试活动的呢?
2 需求阶段测试
在需求阶段,开发人员、测试人员、QA人员主要做的事情,如下表所示:
阶段 | 开发人员 | 测试人员 | QA人员 |
需求阶段 | ? 用户故事分析 ? 用户故事估时 | ? 参与用户故事分析、挖掘故事含混性 ? 参考经验库质疑开发的时间估算 | ? 保证确认需求活动符合需求管理过程 ? 管理用户故事评审 ? 管理需求变更 |
作为测试人员的主要实践如下:
? 参与用户故事分析、挖掘故事含混性
在sprint会议上,对用户故事进行分析,检查功能性需求和非功能性需求是否描述清晰,其中可以将非功能性需求作为验收要点,例如一个用户故事:
"客户希望提高响应时间"
测试人员应当协助开发人员消除故事的含混性:提高什么的响应时间和响应时间为多少?可以建议修改为:
"客户信息普通查询返回结果的响应时间为5s内"
说明在"客户信息"模块,进行"普通查询"操作,返回结果的时间在5s内,这个陈述句已经清晰表达了,也达到了消除含混性的效果。同样,测试人员可以编写提高查询效率的用户故事:
"客户在信息查询模块,进行普通查询,能够在5s内返回结果"
"备注:5s为非功能性需求,也是验收要点"
? 参考经验库质疑开发的时间估算
在sprint会议上,开发人员根据经验出牌(团队自己定义的规则,用扑克牌)估算时间,当给出最终结果的时候,测试人员应当对其进行质疑。测试人员借鉴历史经验库:开发人员在某方面的技能如何、该模块曾经产生过何种程度的缺陷、修复缺陷的消耗时间是多少等等,综合考虑,提出疑问,让开发估算最终的时间,尽可能考虑这些因素。当然,测试人员能够质疑的其中一个前提是:测试人员具备相关开发经验。
小结:在需求阶段,测试人员要发挥作用,减少含混性需求引入到开发阶段、同时协助开发做好时间估算。
3 开发阶段测试
在开发阶段,开发人员、测试人员、QA人员主要做的事情,如下表所示:
阶段 | 开发人员 | 测试人员 | QA人员 |
开发阶段 | ? 架构评审 ? 功能要点确认 ? 编码开发 ? 单元测试 ? 开发自测 ? 代码评审 ? Bug Fix | ? 功能要点确认 ? 测试用例设计 ? 用例评审 ? 测试探索 ? 功能测试 ? Bug Tracking ? 回归测试 ? 系统测试 ? 验收测试 | ? 管理评审活动 ? 管理文档产物 |
作为测试人员的主要实践如下:
? 功能要点确认
Xmind是一个非常好用的脑图工具,通常在开发人员进行编码前,测试人员会针对需求处理的用户故事,与开发人员进行确认,修正理解偏差,确保需求理解一致。
图-5-脑图用例模板
? 测试用例设计
测试人员主要设计测试故事点,使用DSL(Domain Specific language),infoq文章(敏捷测试 之 借力DSL:http://www.infoq.com/cn/articles/leveraging-dsl-in-agile-test),对测试用例进行描述,包括三个基本要素:
Feature、Scenario、Example,补充要素:xmind、Requirement。
Feature:把测试分类到某个模块,并对这个特性本身的业务目的进行相关描述,带进业 务目标,传递业务知识。
Scenario:标明这个Feature的测试场景,可以使用文字描述步骤,或者使用xmind脑图
描述,场景中的数据使用Examples中列出的。
Example:引出具体的数据表格把用到的数据都展示出来,避免相同步骤因为测试数据 的变化而重复若干遍造成冗余。
Xmind:脑图文件,展示测试故事点
Requirement:关联需求管理系统的需求id。
? 用例评审
主要是坚持同行评审的原则,主要在测试组内进行,负责该任务的开发人员也会参与,简单来说就是对测试用例进行查漏补缺的工作。
? 测试探索
进行了"功能要点确认"和"用例评审"后,为了保证测试场景的覆盖率,需要再进行测试探索。在开发人员完成雏形之后,使用探索式测试的策略,对功能基本流程进行有目的的快速走查,挖掘功能不确定的地方和补充测试场景,避免不确定的因素拖延到开发阶段后期,造成返工。
其中:功能测试、Bug Tracking、回归测试、系统测试、验收测试都是日常测试工作所需环节。
? 燃尽图发布
另外,测试人员还有一项重要工作,每日发布燃尽图,让团队了解当前进度情况,总结问题
所在,寻求耗时超过预期时间任务的解决办法。
图-6-燃尽图
图形特点:
1)剩余工时在计划基准上方,代表进度有所延迟,应抓紧进度;
发现此类问题,需要分析总结,原则是保证交付时间,对相应任务进行调整,拥抱变化,发现任务粒度太大,该拆分的继续拆分;对于重构需要慎重,不要过度深入重构,给测试带来额外工作量,影响整个进度,对于整个版本而言,只有开发、测试在承诺的时间内完成任务,才是真正完成,仅仅开发完成交付算不上成功。
2)剩余工时在计划基准接近,代表进展良好,继续保持;
此时也需要查看在这种进度下,优先级高的任务是否得到时间保证,而不是因为处理完简单任务才使得燃尽图长的好看。往往有些开发人员,喜欢挑着任务来做,把简单易做、优先级低的任务先完成了,因为这些总在预期内能够完成,所以前期燃尽图的趋势看起来没有问题。
? 缺陷经验库
每个团队都存在开发/测试新人和开发/测试老人,当测试人员与开发新人进行需求确认的时候,还需要进行缺陷经验教训的提醒,避免多走弯路。
图-7-缺陷总结
? 提升开发自测质量
测试人员可以提供相关checklist(参考:http://www.ibm.com/developerworks/cn/web/1303_sujg_webchecklist1/index.html,大家可以根据原作者提供的修改为符合团队的)帮助开发人员在编码过程中关注开发自测的要点,从而提升质量。
图-8-web软件测试checklist
? 持续集成
利用持续集成(Jenkins)平台,做到快速的构建开发代码,自动的单元测试化,来提高开发代码的效率和质量。
负责单元测试的开发人员,会收到失败构建的邮件;
负责集成测试的开发人员,会收到失败构建的邮件;
负责自动化测试(Selenium)的测试负责人员,会收到失败构建的邮件;
这种方式,确保单元测试、集成测试、自动化测试,有相关人员关注和维护。
图-9-持续集成
? Sonar反馈
Sonar is an open platform to manage code quality. As such, it covers the 7 axes of code quality。
图-10-sonar分析结果
测试人员主要反馈问题如下:
Code coverage:团队要求代码覆盖率在80%以上;
Test success:团队要求测试成功率在100%;
Duplications:团队要求代码重复率在10%以下;
Violations:团队要求Major类别的代码规则缺陷在20以下;
开发团队必须保证每个环境的质量目标,才能够保证整个的质量目标。
小结:
测试人员与开发人员永远不是敌对关系,而是协助关系,确切来说是质量天枰的两边,任何一边的工作没有做好,都会失去平衡。
4 发布阶段测试
在发布阶段,开发人员、测试人员、QA人员主要做的事情,如下表所示:
阶段 | 开发人员 | 测试人员 | QA人员 |
发布阶段 | ? 上线申请 ? 上线部署 ? 服务监控 | ? 测试报告 ? 线上功能检查 | ? 管理评审活动 ? 管理文档产物 |
作为测试人员的主要实践如下:
? 测试报告
完成验收测试,提供测试报告,给出测试数据度量,例如:
1) 测试发现缺陷总数:测试过程中产生的去除状态为"无效"、"不用改"的缺陷数目。
2) 测试发现严重缺陷数:测试过程中产生的并去除状态为"无效"、"不用改"的、且严重性为"Major"和"Critical"的缺陷总数目。
3) 测试发现缺陷修复数:测试过程中产生的状态为"已关闭"的缺陷数量;
4) 未解决缺陷数:去除状态为"无效"、"不用改"、"关闭"的缺陷总数。
5) 缺陷修复率:(测试发现缺陷的修复数)÷(测试发现缺陷总数)×100%
6) 严重缺陷率:(测试发现严重缺陷数)÷(测试发现缺陷总数)×100%
7) 严重缺陷修复率:(已修复的严重缺陷数)÷(测试发现严重缺陷数)×100%
8) 测试需求覆盖率:已测试需求个数÷需求总数×100%
? 缺陷统计分析报告
另外,测试人员还有一项重要工作,对当前版本的缺陷进行统计分析:
按缺陷级别统计:
Critical | Major | Medium | Minor | 总计 | |
首页 | 0 | 0 | 1 | 0 | 1 |
模块一 | 0 | 0 | 0 | 2 | 2 |
模块二 | 0 | 1 | 2 | 10 | 13 |
模块三 | 0 | 0 | 1 | 4 | 5 |
模块四 | 0 | 0 | 1 | 2 | 3 |
模块五 | 0 | 0 | 3 | 2 | 5 |
模块六 | 0 | 1 | 0 | 1 | 2 |
模块七 | 0 | 2 | 0 | 6 | 8 |
sonar | 0 | 1 | 2 | 0 | 3 |
总计 | 0 | 5 | 10 | 27 |
图-11-缺陷统计
按缺陷来源统计:
开发1 | 开发2 | 开发3 | 开发4 | 开发5 | 遗留 | |
Critical | 0 | 0 | 0 | 0 | 0 | 0 |
Major | 1 | 2 | 0 | 0 | 0 | 2 |
Medium | 1 | 7 | 0 | 1 | 0 | 1 |
Minor | 1 | 7 | 4 | 6 | 3 | 6 |
总计 | 3 | 16 | 4 | 7 | 3 | 9 |
按缺陷状态统计:
缺陷总数 | 已关闭缺陷数 | 遗留 | 缺陷修复率 | 严重缺陷数 | 严重缺陷率 | 已关闭严重缺陷数 | 严重缺陷修复率 |
42 | 40 | 2 | 95% | 5 | 12% | 5 | 100% |
测试进度和问题分析:
1、从BUG的严重级别分布来看,Major级别以上的BUG占12%,占的比重不高,说明大部分的主要功能已经实现了;
2、其中在sonar定义级别的缺陷,主要集中在代码规范和单元测试覆盖率,说明代码质量有待提高;
3、版本测试的前期时间较充足,后期随着开发提交完成的功能点增多,BUG数量增多,剩余测试时间变得紧张;
4、在版本测试期间,发现测试环境存在一次代码被覆盖、两次因开发人员操作失误影响测试执行的情况;
小结:
测试人员应当持续反馈、改进、总结每个版本发生的问题(不管是缺陷,还是过程中出现的),并对缺陷进行分析,总结出一些规律,帮助开发人员建立良好的习惯,改进代码的质量。
5 日常运营阶段测试
在日常运营阶段,开发人员、测试人员、QA人员主要做的事情,如下表所示:
阶段 | 开发人员 | 测试人员 | QA人员 |
日常运营 | ? 生产故障登记 | ? 版本问题反馈和改进提议 ? 生产故障分析 | ? 管理日常运营活动 |
日常运营阶段,并不是终止阶段,即便需求、开发、发布阶段暂停活动,只要产品提供服务,日常运营都存在着。
作为测试人员的主要实践如下:
? 版本问题反馈和改进提议
对日常运营发生的问题,总结反馈,提出改进建议,并且跟踪实施。
? 生产故障分析
协助开发排查生产故障,避免测试场景的遗漏。
6 总结
软件测试并不是保证产品质量的最后一道防线,测试人员也不是,测试人员的工作完全可以由更加资深的开发人员来完成,不过现实总是残酷的,目前测试与开发的比例为:1:3,在成熟的团队是这样子,另外一些还在持续改进的团队,由于资源不足,可能去到1:7。开发人员在相当长的一段时间内不可能完全替代测试人员,有个关键要素:思维方式不同,有句古话来形容:江山易改本性难移。当开发人员的思维方式改变的时候,那就成为测试人员了,倒不如把测试人员独立出来更好,并且培养给开发人员一定的测试素养,这个对保证产品质量都是有帮助的。
全程软件测试实践,强调的是贯穿每个阶段的测试活动,不论是开发、还是测试,要理解双方的活动价值,什么时候该做什么事情,什么事情该做到什么程度才算好,保证每个环节的质量,才能够保证产品的全程质量,另外产品质量不是测试出来的,而是构建过程中沉淀下来的,开发人员的素养、测试人员的素养、以及团队对开发测试过程的重视程度,决定了产品质量。产品质量就如同一块蛋糕,应当切分为小块,落实到每个人手里,让每个人尝到甜头,担当起来。