AC834586898 于 2011-03-24 20:17:51发表:
嗯知道了
tsingwen 于 2011-03-23 21:02:28发表:
我的也是啊
anchor2088 于 2011-03-23 16:02:23发表:
我是来灌水的
touch1988 于 2011-03-22 23:36:37发表:
还是迅雷比较好,重要数据什么的一般会找一个网络空间备份一次,然后u盘里存一次,所以说着根本不是问题。而且现在高清电影,没有迅雷的离线与高速通道速度不知道要拖到什么时候。说白了,这东西看需求的,如果你本身没有大量的下载需求用不用迅雷都无所谓,但对于有需求的用户来讲迅雷目前来讲还没有软件可以替代的。
AC834586898 于 2011-03-21 16:40:40发表:
大家的讨论让我很长见识
pallana 于 2011-03-20 23:23:47发表:
how can I use chinise?
age 于 2011-03-20 22:15:21发表:
11# pl_014 这个和热度有关, 如果只有一个来源, 用什么软件都没太大区别. 记得以前用迅雷时, 有个解决死链数的统计, 印像中碰到的完全死链很少. 现在一直在用迅雷离线, 用downthemall从迅雷服务器单线程下载, 轻松满速. 除了不是免费外, 就没什么缺点.
cjzym 于 2011-03-20 21:52:18发表:
慢慢习惯吧
pl_014 于 2011-03-20 21:29:03发表:
10# age 我并没有做过多少对比性的实验,因为下载的目的是收集信息、获取资料等等,而不是为了判断哪个下载工具的下载能力更强,也许迅雷的下载能力确实不错,但我在用迅雷下载时也曾遇到过低速、甚至是死链的情况,其中死链的情况很多,比如windows xp media center版、kylix、lazarus及相关资料等等,所以,虽然客户端可以起到很大的作用,但来源还是很重要的。
age 于 2011-03-20 20:34:57发表:
引用: 8# age 首先说明一点,我家的那块10G硬盘坏了两三年以后,才有了BT,估计也主要还是硬盘质量的问题,我举这个例子主要是为了说明保护硬盘的重要性,而不是要说明p2p对硬盘的伤害。的确,你选硬盘的能力确实很 ... pl_014 发表于 2011-3-20 18:39
pl_014 于 2011-03-20 18:39:15发表:
[i=s] 本帖最后由 pl_014 于 2011-3-20 18:44 编辑 [/i] 8# age 首先说明一点,我家的那块10G硬盘坏了两三年以后,才有了BT,估计也主要还是硬盘质量的问题,我举这个例子主要是为了说明保护硬盘的重要性,而不是要说明p2p对硬盘的伤害。的确,你选硬盘的能力确实很强(不仅很耐用,而且容量也不小),而个人更偏重于对硬盘的养护,或许只有经历过数据灾难以后,才能真正地体会到爱护自己硬盘的重要性。 然后就是BT上传,虽然有些p2p客户端在某些情况下可以做到1k/s的上传,全速下载,但许多情况还不是如此。 至于下载来源,像fedora、texlive等等应该都没问题,因为那些网站会向你提供N多镜像,估计连迅雷也未必能支持到这么多的来源,这种情况用flashget1.73、multiget1.2搞定都没问题。其它的像电影、视频资料、光盘镜像、扫描版电子书等等,主要就得看来源了,好的来源基本上用什么工具下载都不会太慢,就算用火狐下都很少低过50k/s(用flashget1.73、multiget1.2下载常常是满速),来源不好的用什么工具也不会太快,就算迅雷也很少能超过80k/s(好一点的是20-30k/s,不好的仅几k/s)。
age 于 2011-03-20 17:51:53发表:
7# pl_014 我曾经有个五六年夜夜开迅雷挂bt, 硬盘也没问题, 连坏道都没有..., 只能说兄弟你太衰了点... 这个问题是见仁见智的, multiget和flashget for linux我用的效果都很差, 速度太慢, 可能与地域也有关系. 还是前面的观点, 你需要在速度和硬盘寿命间做个折衷, 这是用户的权利. 另外迅雷是可以限上传速度的, 而且对http连接来说, 最主要的下载来源应该是多个服务器盗链. 个人用户上传的部分并不会太多. 而手动添加源这个对用户来说, 难度太大了吧. 难道为了下个东西还需要用google先搜索一番.而且即使是同名同大小的文件你也不能就保证是同一个文件, 只有等下载下来验证了签名才行. 相对来说, 虽然迅雷偶尔也会从错误源下载, 但总体来说, 准确率更高. 因为在服务器里都储存了相关的签名. 针对那种有镜像的站点, 如果选择合适的话, 单线程也可以下得很快. 比如我用rsync同步arch的源,从jp和usa下载都可以到满速.
pl_014 于 2011-03-20 15:47:07发表:
6# age 我会更加注重硬盘,因为硬盘上数据的价值一般要远远超过硬盘本身的价值,我曾经有过坏硬盘的经历,虽然还是几年前,一个10G的硬盘,可能硬盘里真正重要的数据并不是很多,可能还是硬盘质量的问题,但这样的教训对我来讲就已经足够深刻了。况且我所使用的网络运营商铁通的下载速度一直都不高,如果下载源没有问题的话,无论flashget1.73、迅雷、multiget1.2的速度都是满速(现在是160kB/s),并没有什么太大的区别,只是像ie、firefox、wget这样的工具可能常常达到低速(个人觉得wget的可能性要小些),反倒是BT、电驴等p2p下载因其下载时需要牺牲一部分速度以供上传,在某些情况下其速度必无法与flashget1.73、迅雷、multiget1.2等相比,而且p2p下载均是由用户来上传提供的,上传的人一般要比下载的人少很多(特别热门的资源,但这种情况一般也可以找到非p2p下载),速度也不会高到哪去,故没有必要的话,我是不用p2p下载的。 另外,flashget1.73、multiget1.2可以手动添加多个镜像地址,只要你知道,就可以,并且可以保证只下载可信的来源,而迅雷要么有多个来源但并非都是可信的,要么就只能下载一个来源的,灵活性很差,不过迅雷要下载p2p的资源一般是最快的,当然,有的服务器会封迅雷,这种情况除外。
age 于 2011-03-20 13:51:38发表:
3# pl_014 这就是速度和硬盘寿命的折衷了. flashget的速度本来就一般, 比迅雷差多了, 它的找源能力不行. multiget的速度真的只能算一般, 从技术角度说, 它和downthemall没有太多区别. 只会从单一服务器下载. 估且不说没法解决死链问题, 就单单从下载角度说, 是从一个源下载快, 还是从N个源下载快呢? 以我用multiget和downthemall的经验, 一般也就是50K/s的水准, 远低于迅雷的250K/s. 如果既想保护硬盘, 又想要高速的话, 还是用迅雷离线吧. 单线程基本都可以满速, 250K/s
AC834586898 于 2011-03-20 13:23:56发表:
谢啦,各位
coius 于 2011-03-20 08:51:40发表:
不一定的
pl_014 于 2011-03-20 06:13:34发表:
[i=s] 本帖最后由 pl_014 于 2011-3-20 06:17 编辑 [/i]
引用:如果你是在xp下用ie下载的,那么linux的下载速度应该不比它差,十之八九还要更快。 但如果你是用迅雷之类的下载工具下的,那就完全没有可比性了。针对常见的http协议,现在xp下的下载工具已经集成跃迁到p2ps阶段了。 ... age 发表于 2011-3-20 01:04
age 于 2011-03-20 01:04:34发表:
如果你是在xp下用ie下载的,那么linux的下载速度应该不比它差,十之八九还要更快。 但如果你是用迅雷之类的下载工具下的,那就完全没有可比性了。针对常见的http协议,现在xp下的下载工具已经集成跃迁到p2ps阶段了。而linux的下载工具还停留在“多点下载,断点续传”阶段。二者完全没有可比性。换句话说,linux下的下载速度绝对不会超过迅雷。
AC834586898 于 2011-03-24 20:17:51发表:
嗯知道了
tsingwen 于 2011-03-23 21:02:28发表:
我的也是啊
anchor2088 于 2011-03-23 16:02:23发表:
我是来灌水的
touch1988 于 2011-03-22 23:36:37发表:
还是迅雷比较好,重要数据什么的一般会找一个网络空间备份一次,然后u盘里存一次,所以说着根本不是问题。而且现在高清电影,没有迅雷的离线与高速通道速度不知道要拖到什么时候。说白了,这东西看需求的,如果你本身没有大量的下载需求用不用迅雷都无所谓,但对于有需求的用户来讲迅雷目前来讲还没有软件可以替代的。
AC834586898 于 2011-03-21 16:40:40发表:
大家的讨论让我很长见识
pallana 于 2011-03-20 23:23:47发表:
how can I use chinise?
age 于 2011-03-20 22:15:21发表:
11# pl_014
这个和热度有关, 如果只有一个来源, 用什么软件都没太大区别. 记得以前用迅雷时, 有个解决死链数的统计, 印像中碰到的完全死链很少.
现在一直在用迅雷离线, 用downthemall从迅雷服务器单线程下载, 轻松满速. 除了不是免费外, 就没什么缺点.
cjzym 于 2011-03-20 21:52:18发表:
慢慢习惯吧
pl_014 于 2011-03-20 21:29:03发表:
10# age
我并没有做过多少对比性的实验,因为下载的目的是收集信息、获取资料等等,而不是为了判断哪个下载工具的下载能力更强,也许迅雷的下载能力确实不错,但我在用迅雷下载时也曾遇到过低速、甚至是死链的情况,其中死链的情况很多,比如windows xp media center版、kylix、lazarus及相关资料等等,所以,虽然客户端可以起到很大的作用,但来源还是很重要的。
age 于 2011-03-20 20:34:57发表:
前面都同意, 但最后一句不敢苟同。迅雷的优势就是体现在 来源不好的时候,后台的自动找源可以帮你找到更多更好的源,从而提升速度。即使是死链,迅雷也十有八九能帮你找到新的源。对迅雷来说,其实并没有来源好不好的问题,因为每个文件都会有无数个来源,总有几个是适合你的,即使全不适合。这些源加起来提供的速度也很可观。
pl_014 于 2011-03-20 18:39:15发表:
[i=s] 本帖最后由 pl_014 于 2011-3-20 18:44 编辑 [/i]
8# age
首先说明一点,我家的那块10G硬盘坏了两三年以后,才有了BT,估计也主要还是硬盘质量的问题,我举这个例子主要是为了说明保护硬盘的重要性,而不是要说明p2p对硬盘的伤害。的确,你选硬盘的能力确实很强(不仅很耐用,而且容量也不小),而个人更偏重于对硬盘的养护,或许只有经历过数据灾难以后,才能真正地体会到爱护自己硬盘的重要性。
然后就是BT上传,虽然有些p2p客户端在某些情况下可以做到1k/s的上传,全速下载,但许多情况还不是如此。
至于下载来源,像fedora、texlive等等应该都没问题,因为那些网站会向你提供N多镜像,估计连迅雷也未必能支持到这么多的来源,这种情况用flashget1.73、multiget1.2搞定都没问题。其它的像电影、视频资料、光盘镜像、扫描版电子书等等,主要就得看来源了,好的来源基本上用什么工具下载都不会太慢,就算用火狐下都很少低过50k/s(用flashget1.73、multiget1.2下载常常是满速),来源不好的用什么工具也不会太快,就算迅雷也很少能超过80k/s(好一点的是20-30k/s,不好的仅几k/s)。
age 于 2011-03-20 17:51:53发表:
7# pl_014
我曾经有个五六年夜夜开迅雷挂bt, 硬盘也没问题, 连坏道都没有..., 只能说兄弟你太衰了点...
这个问题是见仁见智的, multiget和flashget for linux我用的效果都很差, 速度太慢, 可能与地域也有关系. 还是前面的观点, 你需要在速度和硬盘寿命间做个折衷, 这是用户的权利.
另外迅雷是可以限上传速度的, 而且对http连接来说, 最主要的下载来源应该是多个服务器盗链. 个人用户上传的部分并不会太多. 而手动添加源这个对用户来说, 难度太大了吧. 难道为了下个东西还需要用google先搜索一番.而且即使是同名同大小的文件你也不能就保证是同一个文件, 只有等下载下来验证了签名才行. 相对来说, 虽然迅雷偶尔也会从错误源下载, 但总体来说, 准确率更高. 因为在服务器里都储存了相关的签名.
针对那种有镜像的站点, 如果选择合适的话, 单线程也可以下得很快. 比如我用rsync同步arch的源,从jp和usa下载都可以到满速.
pl_014 于 2011-03-20 15:47:07发表:
6# age
我会更加注重硬盘,因为硬盘上数据的价值一般要远远超过硬盘本身的价值,我曾经有过坏硬盘的经历,虽然还是几年前,一个10G的硬盘,可能硬盘里真正重要的数据并不是很多,可能还是硬盘质量的问题,但这样的教训对我来讲就已经足够深刻了。况且我所使用的网络运营商铁通的下载速度一直都不高,如果下载源没有问题的话,无论flashget1.73、迅雷、multiget1.2的速度都是满速(现在是160kB/s),并没有什么太大的区别,只是像ie、firefox、wget这样的工具可能常常达到低速(个人觉得wget的可能性要小些),反倒是BT、电驴等p2p下载因其下载时需要牺牲一部分速度以供上传,在某些情况下其速度必无法与flashget1.73、迅雷、multiget1.2等相比,而且p2p下载均是由用户来上传提供的,上传的人一般要比下载的人少很多(特别热门的资源,但这种情况一般也可以找到非p2p下载),速度也不会高到哪去,故没有必要的话,我是不用p2p下载的。
另外,flashget1.73、multiget1.2可以手动添加多个镜像地址,只要你知道,就可以,并且可以保证只下载可信的来源,而迅雷要么有多个来源但并非都是可信的,要么就只能下载一个来源的,灵活性很差,不过迅雷要下载p2p的资源一般是最快的,当然,有的服务器会封迅雷,这种情况除外。
age 于 2011-03-20 13:51:38发表:
3# pl_014
这就是速度和硬盘寿命的折衷了. flashget的速度本来就一般, 比迅雷差多了, 它的找源能力不行. multiget的速度真的只能算一般, 从技术角度说, 它和downthemall没有太多区别. 只会从单一服务器下载. 估且不说没法解决死链问题, 就单单从下载角度说, 是从一个源下载快, 还是从N个源下载快呢? 以我用multiget和downthemall的经验, 一般也就是50K/s的水准, 远低于迅雷的250K/s.
如果既想保护硬盘, 又想要高速的话, 还是用迅雷离线吧. 单线程基本都可以满速, 250K/s
AC834586898 于 2011-03-20 13:23:56发表:
谢啦,各位
coius 于 2011-03-20 08:51:40发表:
不一定的
pl_014 于 2011-03-20 06:13:34发表:
[i=s] 本帖最后由 pl_014 于 2011-3-20 06:17 编辑 [/i]
我觉得有时也未尝不可,像multiget1.2的速度和flashget1.73可以说是一个级别的,至于p2p方式,个人其实很不喜欢,因为许多站长都利用p2p来减轻自己服务器的负担,迫使用户来上传,不得不相信许许多多的未知下载来源,虽然下载后可以校验,而且p2p会点用大量网络资源,严重影响其他用户的上网,落得被封的下场,实在是活该,更重要的,长期用p2p下载对硬盘的伤害极大,这不仅是其原理的问题,而且许多p2p软件都会把一个文件分成几千几万段来下载,而普通下载分成5块就已经不算少了,再多就要伤硬盘了,只是有时需要用到一些稀有资源的时候(比如kylix),像p2p这样的下载就派上用场了。
唉,multiget的作者这人的脑子真该养鱼了,1.2本来作得挺好的,非要改到2.0且作得破破烂烂,看着一点也不像下载工具的那个multiget,也不知道sourceforge上还有没有multiget1.2的下载,该不会以后再找就得从debian的源里找了吧。
age 于 2011-03-20 01:04:34发表:
如果你是在xp下用ie下载的,那么linux的下载速度应该不比它差,十之八九还要更快。
但如果你是用迅雷之类的下载工具下的,那就完全没有可比性了。针对常见的http协议,现在xp下的下载工具已经集成跃迁到p2ps阶段了。而linux的下载工具还停留在“多点下载,断点续传”阶段。二者完全没有可比性。换句话说,linux下的下载速度绝对不会超过迅雷。