如何用curl或wget获取下载文件真实地址?
时间:2011-04-02
来源:互联网
如http://www.xazq.com.cn/soft/sort05/down-8248.html此页面,我想获取到里面下载软件的真实地址,因为它是跳转的,必须打开后才能看到真实软件地址。
如何能用curl或者wget来获取呢?
如何能用curl或者wget来获取呢?
作者: daxian195 发布时间: 2011-04-02
wget --referer=http://www.xazq.com.cn/soft/sort05/down-8248.html "http://www.xazq.com.cn/soft/download.asp?softid=8248&downid=0&id=8974"
作者: ziyunfei 发布时间: 2011-04-02
多谢楼上的,这样的确可以下载下来了,不过我现在只想获取到它的真实下载地址即可,不用下载文件到本地。
作者: daxian195 发布时间: 2011-04-02
wget --referer=http://www.xazq.com.cn/soft/sort05/down-8248.html "http://www.xazq.com.cn/soft/download.asp?softid=8248&downid=0&id=8974" --spider
这样就可以不用下载了。多谢楼上的启发。我继续研究批量的获取软件地址。
这样就可以不用下载了。多谢楼上的启发。我继续研究批量的获取软件地址。
作者: daxian195 发布时间: 2011-04-02
curl -LIH Referer:http://www.xazq.com.cn/soft/sort05/down-8248.html "http://www.xazq.com.cn/soft/download.asp?softid=8248&downid=0&id=8974" 2>/dev/null | grep -oP '(?<=Location: ).*'
wget --referer=http://www.xazq.com.cn/soft/sort05/down-8248.html "http://www.xazq.com.cn/soft/download.asp?softid=8248&downid=0&id=8974" -S --spider 2>&1 |grep -oP '(?<=Location: ).*'
wget --referer=http://www.xazq.com.cn/soft/sort05/down-8248.html "http://www.xazq.com.cn/soft/download.asp?softid=8248&downid=0&id=8974" -S --spider 2>&1 |grep -oP '(?<=Location: ).*'
作者: ziyunfei 发布时间: 2011-04-02
现看看属性,然后wget:em30::em30::emn10::emn10:
作者: 南极雨 发布时间: 2011-04-02
相关阅读 更多
热门阅读
-
office 2019专业增强版最新2021版激活秘钥/序列号/激活码推荐 附激活工具
阅读:74
-
如何安装mysql8.0
阅读:31
-
Word快速设置标题样式步骤详解
阅读:28
-
20+道必知必会的Vue面试题(附答案解析)
阅读:37
-
HTML如何制作表单
阅读:22
-
百词斩可以改天数吗?当然可以,4个步骤轻松修改天数!
阅读:31
-
ET文件格式和XLS格式文件之间如何转化?
阅读:24
-
react和vue的区别及优缺点是什么
阅读:121
-
支付宝人脸识别如何关闭?
阅读:21
-
腾讯微云怎么修改照片或视频备份路径?
阅读:28