filter的筛选也涉及到行和列,确实存在这样的问题或风险。
我这个数据集使用cbind合并来的,感觉应该在cbind这一步就解决掉这个问题。
业余的数据分析,就是工作中虽然经常做数据分析,但数据分析往往是解决实际问题的一个方式或手段,所以经常性不会顾及是否周全,更多的是考虑易用性和便捷,所以tidyverse从一诞生开始,就成了我用的主力,毕竟加载一次,全程无忧,比起用python舒服得多。
现在看来,能用基础函数的时候,尽量少用新包,我记得read_csv刚出来的时候,读的数据超过100行以后,数据的位数有变化的时候,读入的数据就有个比较严重的bug,read.csv就没有问题。
感谢楼上出镜的各位大佬,明白是怎么回事了,感谢!