本文实例讲述了Python使用wget实现下载网络文件功能。分享给大家供大家参考,具体如下:
wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。
ubuntu 安装wget
pip install wget
从网络或本地硬盘下载文件(并解压)
# -*- coding: utf-8 -*-
import wget, tarfile
import os
# 网络地址
DATA_URL = 'http://www.robots.ox.ac.uk/~ankush/data.tar.gz'
# 本地硬盘文件
# DATA_URL = '/home/xxx/book/data.tar.gz'
out_fname = 'abc.tar.gz'
wget.download(DATA_URL, out=out_fname)
# 提取压缩包
tar = tarfile.open(out_fname)
tar.extractall()
tar.close()
# 删除下载文件
os.remove(out_fname)
wget常用参数:
-c 断点续传
-t NUMBER 最大尝试连接次数(--tries=NUMBER)
-T SECONDS 响应超时秒数 (--timeout=SECONDS)
-P PREFIX 将文件保存在目录(--directory-prefix=PREFIX)
更多关于Python相关内容感兴趣的读者可查看本站专题:《Python进程与线程操作技巧总结》、《Python Socket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
您可能感兴趣的文章:python爬虫 基于requests模块发起ajax的get请求实现解析python中数据爬虫requests库使用方法详解Python使用requests及BeautifulSoup构建爬虫实例代码python爬虫入门教程--优雅的HTTP库requests(二)解析Python中的__getitem__专有方法python通过get,post方式发送http请求和接收http响应的方法python爬虫 基于requests模块的get请求实现详解