wellfrog
最近写的论文里有这样一个优化,处理数据时想不明白,想请教大家。
主题如下:
某项目,测试人员提交错误报告,开发人员进行改正。针对开发人员修改错误报告所用的时间,分析影响所用时间的因素,提出优化方案。
疑问如下:
因素之一:错误报告共有6000个,其中有1500个错误被证明和已提交的1500个错误报告是重复提交,即,花费在这1500个错误报告上的时间是白费的。
提出的优化方案是测试人员避免重复提交报告(使用一些自动工具),但是应该如何优化这些数据?我第一次的结论是把这些1500个错误报告的时间直接从样本里删除,但是时间数据没有得到优化,因为花费在这些错误报告上的时间会导致开发人员浪费开发的有效时间,我的直觉是消除了1500个重复报告之后,花费在其他4500个有效错误报告上的时间也会缩短,但是不知道怎么缩短;第二次的结论是应该把这1500个报告的改正时间设为0,相当于测试人员主动发觉他们为无效的错误报告,花费开发人员的时间为0,这样出来的数据似乎优化过头,头疼。。。
如果不算语无伦次,望看懂的达人指教,谢谢!