红联Linux门户
Linux帮助

搭起来了一个Linux平台

发布时间:2008-04-24 00:46:24来源:红联作者:badgc
人类基因组的数据量是在是太大了。全部解压居然有5G++。

我整了一个100M+ Fasta数据下来测试一下,居然电脑就累成这样下:

[root@andLinux ~]# free -m
total used free shared buffers cached
Mem: 377 373 3 0 2 6
-/+ buffers/cache: 364 12
Swap: 255 128 127

物理内存基本上100%被消耗了。

如果把基因数据撤走,则内存恢复为:

[root@andLinux ~]# free -m
total used free shared buffers cached
Mem: 377 21 355 0 2 8
-/+ buffers/cache: 10 366
Swap: 255 10 245

真是没有天理啊。估计正式测算的时候至少要安装4G+内存的电脑才会比较流畅。不能虐待我自己的电脑了。

这两个礼拜先在自己的电脑上摸个门道出来,然后在实验室的电脑安装计算平台,用老板的电脑开算,管他算几天几夜呢。
文章评论

共有 2 条评论

  1. wanghc 于 2008-04-24 23:03:33发表:

    free -m
    total used free shared buffers cached
    Mem: 876 850 26 0 14 285
    -/+ buffers/cache: 550 326
    Swap: 1027 0 1027
    我的是这样的,可在系统监视器中看到的数据是只用了566M内存
    系统没有卡的感觉,如果 是按free-m命令得出的数据,系统是没有那么流畅的。
    不知是什么原因?

  2. wgyzhechao 于 2008-04-24 10:36:39发表:

    晕 咋我的电脑total 1001 used 687 free 313我什么都没弄 就用了这么多。奇怪啊。??