+ -
当前位置:首页 → 问答吧 → chrome老是崩溃,一崩系统就自动注销,想换别的操作系统了。

chrome老是崩溃,一崩系统就自动注销,想换别的操作系统了。

时间:2008-09-18

来源:互联网

我在MIT和Yale的开放式课程网站上下载的本科课程网页做的非常精彩,所有的图片,习题都存在本地压缩文件里面,解压缩之后有只有一个index.html,用浏览器打开了,点开各种各样的链接直接指向本地,所有的网页都精美华丽。我想作出同样的效果,把自己喜欢的网站也存到本地硬盘上,不用上网也可以浏览全部的内容;但是用
wget -m -k -r http://www.whateveruniversity.edu
的时候下载下来的网页不能显示图片,网页的结构也和直接用浏览器接入internet看到的东西不一样,所有的链接都离开了原来的位置,从高到底排成一排, 尤其可恶的是,我明明把网页下载下来了,但是浏览器指向的文件位置和实际储存的位置不同,主页上所有的链接都打不开!

求教:
怎样才能下载网页,让网页在本地脱机浏览,就像人家MIT的课件那样?
如果wget不能实现,用什么软件好?
如何实现本地硬盘服务器的同步呢?

还有,是不是许多网站禁止我这样子整个网站地下载?

在此先行谢过!

作者: iheartpp   发布时间: 2008-09-18

代码:
wget -r -p -k -np site

试试它

作者: command   发布时间: 2008-09-18

楼上的命令可行,谢谢!

作者: aprilus   发布时间: 2009-05-17


试试,

作者: 54wco   发布时间: 2009-08-21

好像没有图片?

作者: 54wco   发布时间: 2009-08-21

学会使用firefox的可怕扩展:scrapbook

作者: trigger   发布时间: 2009-08-21

为什么要下整个站,又不会自动更新

作者: twzh09   发布时间: 2009-08-22

折腾

作者: shajisky   发布时间: 2009-08-23

webhttrack or httrack

作者: 呼文彪   发布时间: 2009-08-24

mark

作者: ghost5332   发布时间: 2011-06-11

我在MIT和Yale的开放式课程网站上下载的本科课程网页做的非常精彩,所有的图片,习题都存在本地压缩文件里面,解压缩之后有只有一个index.html,用浏览器打开了,点开各种各样的链接直接指向本地,所有的网页都精美华丽。我想作出同样的效果,把自己喜欢的网站也存到本地硬盘上,不用上网也可以浏览全部的内容;但是用
wget -m -k -r http://www.whateveruniversity.edu
的时候下载下来的网页不能显示图片,网页的结构也和直接用浏览器接入internet看到的东西不一样,所有的链接都离开了原来的位置,从高到底排成一排, 尤其可恶的是,我明明把网页下载下来了,但是浏览器指向的文件位置和实际储存的位置不同,主页上所有的链接都打不开!

求教:
怎样才能下载网页,让网页在本地脱机浏览,就像人家MIT的课件那样?
如果wget不能实现,用什么软件好?
如何实现本地硬盘服务器的同步呢?

还有,是不是许多网站禁止我这样子整个网站地下载?

在此先行谢过!

作者: iheartpp   发布时间: 2008-09-18

代码:
wget -r -p -k -np site

试试它

作者: command   发布时间: 2008-09-18

楼上的命令可行,谢谢!

作者: aprilus   发布时间: 2009-05-17


试试,

作者: 54wco   发布时间: 2009-08-21

好像没有图片?

作者: 54wco   发布时间: 2009-08-21

学会使用firefox的可怕扩展:scrapbook

作者: trigger   发布时间: 2009-08-21

为什么要下整个站,又不会自动更新

作者: twzh09   发布时间: 2009-08-22

折腾

作者: shajisky   发布时间: 2009-08-23

webhttrack or httrack

作者: 呼文彪   发布时间: 2009-08-24

mark

作者: ghost5332   发布时间: 2011-06-11

我在MIT和Yale的开放式课程网站上下载的本科课程网页做的非常精彩,所有的图片,习题都存在本地压缩文件里面,解压缩之后有只有一个index.html,用浏览器打开了,点开各种各样的链接直接指向本地,所有的网页都精美华丽。我想作出同样的效果,把自己喜欢的网站也存到本地硬盘上,不用上网也可以浏览全部的内容;但是用
wget -m -k -r http://www.whateveruniversity.edu
的时候下载下来的网页不能显示图片,网页的结构也和直接用浏览器接入internet看到的东西不一样,所有的链接都离开了原来的位置,从高到底排成一排, 尤其可恶的是,我明明把网页下载下来了,但是浏览器指向的文件位置和实际储存的位置不同,主页上所有的链接都打不开!

求教:
怎样才能下载网页,让网页在本地脱机浏览,就像人家MIT的课件那样?
如果wget不能实现,用什么软件好?
如何实现本地硬盘服务器的同步呢?

还有,是不是许多网站禁止我这样子整个网站地下载?

在此先行谢过!

作者: iheartpp   发布时间: 2008-09-18

代码:
wget -r -p -k -np site

试试它

作者: command   发布时间: 2008-09-18

楼上的命令可行,谢谢!

作者: aprilus   发布时间: 2009-05-17


试试,

作者: 54wco   发布时间: 2009-08-21

好像没有图片?

作者: 54wco   发布时间: 2009-08-21

学会使用firefox的可怕扩展:scrapbook

作者: trigger   发布时间: 2009-08-21

为什么要下整个站,又不会自动更新

作者: twzh09   发布时间: 2009-08-22

折腾

作者: shajisky   发布时间: 2009-08-23

webhttrack or httrack

作者: 呼文彪   发布时间: 2009-08-24

mark

作者: ghost5332   发布时间: 2011-06-11