autoban Yes and no. One limitation is that the vector lengths in R are limited to 32-bit. So, there will be some need to split vectors in order to use all memory.
autoban 具体记不太清楚了,我印象好像是2^(32-1),2G左右。 这里说的只是向量长度,要考虑到数组(包括矩阵)本身就是向量加一个dim attribute,所以总长2G的数组还是很可能达到的(至少我就曾经遇到过几次),既然你真需要192G的内存,遇到这个限制应该也不是不可能的,特别是很多函数内部需要建多大的数组往往都被忽略了。
lyxmoo 回复 第1楼 的 wanghao88: LZ, 单条16G容量的内存模块现在还没有,即使有单条容量大于4G的模块,那价格也是钢钢地, 单条16G,或许还仅存在于科幻中。 所以在可能的情况下,也只是 12X4G 的内存配置。 还是重新构思算法将数据计算需要的维度降低吧。
autoban 回复 第6楼 的 lyxmoo:有地: http://memory.dataram.com/memory/system-model/273/4/hp-z800-memory 32G的: https://www.nycomputerexchange.com/products/?id=182658
xuwenning 我是这样认为的内存容量和软件处理能力好像不能成正比的 R处理巨型大数据集的能力应该与内存容量无关 内存容量与应用软件最有关系的是速度;容量越大速度越快(前提是操作系统和应用软件能完全支配内存)