利用Pyhton中的requests包进行网页访问测试的方法

Peren ·
更新时间:2024-11-15
· 639 次阅读

为了测试一组网页是否能够访问,采取python中的requests包进行批量的访问测试,并输出访问结果。

一、requests包的安装

打开命令行(win+r输入cmd启动);

打开pythion安装目录下的Python\Python36-32\Scripts,将其中的pip文件拖动到命令行中;

在之后输入install requests命令;

Pyhton requests包进行网页访问测试

二、访问方法

import requests fin = open('urls.txt', 'r') fout = open('result.txt', 'w') urllist = fin.readlines() for url in urllist: try: url='http://'+url.strip() r=requests.post(url) fout.write(url+' : OK with status_code: '+str(r.status_code)) print(url+' : OK with status_code: '+str(r.status_code)) except: fout.write(url+' : error\n') print(url+' : error\n') fin.close() fout.close()

通过读取文件中的url进行访问;

由于文件中url缺少一些信息,因此统一加上http://;

.strip()方法是为了去掉末尾的\n,否则会访问错误;

之所以采用try/except是因为经过测试发现,有些网站打不开会直接导致程序中断,而有些网站则是能够进去,但是网站本身没有内容或再报一些其他错,所以对于能访问的网站还会进一步检查状态码进行鉴别。

以上这篇利用Pyhton中的requests包进行网页访问测试的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:python利用requests库进行接口测试的方法详解如何使用Python的Requests包实现模拟登陆python 使用 requests 模块发送http请求 的方法Python3使用requests包抓取并保存网页源码的方法python3使用requests模块爬取页面内容的实战演练python中数据爬虫requests库使用方法详解Python的requests网络编程包使用教程python中requests模块的使用方法



网页访问 方法 测试

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章