Open
Description
之前的一个思路,但一直没有时间去落地,看看有没有有缘人或者公司有兴趣 :)
背景
目前ui自动化测试的核心价值其实就是在回归测试里面校验实际表现是否出现不可预知的变化
做法
- 录制一段基准视频
- cutter将视频拆成阶段(不需要后面的分类,效率也高),保存成一系列文件夹
- 回归的时候,把过程录制下来,形成目标视频
- 同样利用cutter拆成阶段
- 此时我们会有前后两组图片集,在此基础上应用进阶的图片匹配算法即可
可能存在的问题
效率?
不用分类,所以不涉及keras模型之类的,效率不低
准确度?
最好将阈值调低,使得拆分出来的阶段尽可能少一点(一般来说只需要关注几个最关键的阶段)
图片算法指什么?
比较的时候其实只有三种情况(假设原来是 1->2->3->4)
- 阶段新增:1-2-5-3-4
- 阶段变更:1-5-3-4
- 阶段删减:1-3-4
BTW,这在 leetcode 上其实有算法原题。
- 但变更实际上就是 删减后新增,所以情况只会有新增与删减两种;
- 而新增与删减,显然阶段消失了更可能是个需要关注的问题(例如,多一个弹框根本无伤大雅,关键的阶段都还在);
- 所以第一个阶段我们更关注,只出现在第一个视频中、而没有出现在第二个视频 的阶段
图片匹配算法,如果用 ssim 做的话,都有现成api的,不再赘述了。搜搜别的也完全可以,stagesepx里也都有现成的函数。