人类基因组的数据量是在是太大了。全部解压居然有5G++。
我整了一个100M+ Fasta数据下来测试一下,居然电脑就累成这样下:
[root@andLinux ~]# free -m
total used free shared buffers cached
Mem: 377 373 3 0 2 6
-/+ buffers/cache: 364 12
Swap: 255 128 127
物理内存基本上100%被消耗了。
如果把基因数据撤走,则内存恢复为:
[root@andLinux ~]# free -m
total used free shared buffers cached
Mem: 377 21 355 0 2 8
-/+ buffers/cache: 10 366
Swap: 255 10 245
真是没有天理啊。估计正式测算的时候至少要安装4G+内存的电脑才会比较流畅。不能虐待我自己的电脑了。
这两个礼拜先在自己的电脑上摸个门道出来,然后在实验室的电脑安装计算平台,用老板的电脑开算,管他算几天几夜呢。
wanghc 于 2008-04-24 23:03:33发表:
free -m
total used free shared buffers cached
Mem: 876 850 26 0 14 285
-/+ buffers/cache: 550 326
Swap: 1027 0 1027
我的是这样的,可在系统监视器中看到的数据是只用了566M内存
系统没有卡的感觉,如果 是按free-m命令得出的数据,系统是没有那么流畅的。
不知是什么原因?
wgyzhechao 于 2008-04-24 10:36:39发表:
晕 咋我的电脑total 1001 used 687 free 313我什么都没弄 就用了这么多。奇怪啊。??