大家好,我刚开发的R shiny 程序部署在新的服务器上,让你大跌眼镜的同样的测试案例,在新、旧服务器上测试结果出现较大的差异,基本配置情况如下:
服务器相同点
--Architecture: x86_64
--CPU op-mode(s): 32-bit, 64-bit
--Byte Order: Little Endian
--On-line CPU(s) list: 0-79
--NUMA node(s): 2
--Vendor ID: GenuineIntel
--CPU family: 6
--BogoMIPS: 4200.00
--L1d cache: 32K
--L1i cache: 32K服务器差异点(旧服务器-->新服务器)
--CPU(s): 20--> 80
--Thread(s) per core: 1-->2
--Core(s) per socket: 5-->20
--Socket(s): 4--> 2
--Model: 79-->85
--Model name: Intel(R) Xeon(R) CPU E7-4850 v4 @ 2.10GHz-->Intel(R) Xeon(R) Gold 6230 CPU @ 2.10GHz
--Stepping: 1-->7
--CPU MHz: 2099.999 -->1055.383
--Virtualization type: full -->VT-x
--L2 cache: 256K --> 1024K
--L3 cache: 40960K--> 28160K
- 主要使用的R包:shiny ,data.table,xgboost,ggplot2等
- 部署环境:docker 同一镜像,同一版本程序;
- 计算结果:旧服务器3mins,新服务器15mins。
不知道问题出在哪儿,硬件那边同事说没有问题,软件同事说同一环境,差异这么大,主要原因在硬件。
求论坛大佬指点一下,谢谢。