Python爬取智联招聘数据分析师岗位相关信息的方法

Irene ·
更新时间:2024-11-15
· 732 次阅读

进入智联招聘官网,在搜索界面输入‘数据分析师',界面跳转,按F12查看网页源码,点击network

 选中XHR,然后刷新网页

可以看到一些Ajax请求, 找到画红线的XHR文件,点击可以看到网页的一些信息

在Header中有Request URL,我们需要通过找寻Request URL的特点来构造这个请求网址,

点击Preview,可以看到我们所需要的信息就存在result中,这信息基本是json格式,有些是列表;

下面我们通过Python爬虫来爬取上面的信息;

代码如下:

import requests from urllib.parse import urlencode import json #from requests import codes #import os #from hashlib import md5 #from multiprocessing.pool import Pool #import re def get_page(offset): params = { 'start': offset, 'pageSize': '90', 'cityId': '530', 'salary': '0,0', 'workExperience': '-1', 'education': '-1', 'companyType': '-1', 'employmentType': '-1', 'jobWelfareTag': '-1', 'kw': '数据分析师', 'kt': '3', '_v': '0.77091902', 'x-zp-page-request-id': '8ff0aa73bf834b408f46324e44d89b84-1562722989022-210101', 'x-zp-client-id': '2dc4c9a4-e80d-4488-84a3-03426dd69a1e' } base_url = 'https://fe-api.zhaopin.com/c/i/sou?' url = base_url + urlencode(params) try: resp = requests.get(url) print(url) if 200 == resp.status_code: print(resp.json()) return resp.json() except requests.ConnectionError: return None def get_information(json_page): if json_page.get('data'): results = json_page.get('data').get('results') for result in results: yield { 'city': result.get('city').get('display'), 'company': result.get('company').get('name'), #'welfare':result.get('welfare'), 'workingExp':result.get('workingExp').get('name'), 'salary':result.get('salary'), 'eduLevel':result.get('eduLevel').get('name') } print('succ') def write_to_file(content): with open('result.txt','a',encoding='utf-8') as f: print(type(json.dumps(content))) f.write(json.dumps(content,ensure_ascii=False)+'\n') def main(offset): json_page=get_page(offset) for content in get_information(json_page): write_to_file(content) if __name__=='__main__': for i in range(10): main(offset=90*i)

爬取结果如下:

您可能感兴趣的文章:一个简单的python爬虫程序 爬取豆瓣热度Top100以内的电影信息Python爬虫——爬取豆瓣电影Top250代码实例Python利用lxml模块爬取豆瓣读书排行榜的方法与分析python requests库爬取豆瓣电视剧数据并保存到本地详解Python使用mongodb保存爬取豆瓣电影的数据过程解析Python使用Beautiful Soup爬取豆瓣音乐排行榜过程解析python使用requests模块实现爬取电影天堂最新电影信息python3 实现爬取TOP500的音乐信息并存储到mongoDB数据库中python爬虫 爬取58同城上所有城市的租房信息详解Python实现的爬取豆瓣电影信息功能案例



数据分析师 分析师 方法 岗位 数据 数据分析 Python

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章