项目:招聘网站信息(获取数据+数据分析+数据可视化).pdfVIP

项目:招聘网站信息(获取数据+数据分析+数据可视化).pdf

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
项⽬:招聘⽹站信息(获取数据+数据分析+数据可视化) 在本次项⽬中,使⽤到的第三⽅库如下: import requests import time import random import json import pandas import matplotlib.pyplot import csv import numpy import WordCloud import jieba 项⽬实现流程如下: ⼀、利⽤requests库模块进⾏对招聘⽹站信息的爬取 代码如下: import requests import time import random import json import pandas as pd import matplotlib.pyplot as plt page_num_max = 3 class Recruitment_info(): def __init__(self): self.zhilian_url = /api/sou/positionlist def get_page(self,search_content,page_num): url = self.zhilian_url headers = {user-agent:self.get_ua()} data = self.get_data(search_content,page_num) html = requests.post(url=url,headers=headers,data=data).text return html def get_data(self,search_content,page_num): t = 0123456789abide d = XXXXXXXX-XXXX-4XXX-XXXX-XXXXXXXXXXXX for i in range(35): t_rd = random.choice(t) d = d.replace(X, t_rd, 1) data = { S_SOU_FULL_INDEX: search_content, S_SOU_WORK_CITY: 489, at: , channel: baidupcpz, d: d, eventScenario: msiteSeoSearchSouList, pageIndex: page_num, pageSize: 20, platform: 7, platform: 7, rt: , utmsource: baidupcpz, } return json.dumps(data) def get_ua(self): Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) GeckoFirefox/6.0, Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36] return random.choice(ua_list) def Data_cleaning(self,html): resurt = json.loads(html) resurt = resurt[data][list] data_list = [] for per_info in resurt: data = { cityId : per_inf

文档评论(0)

文库垃圾佬 + 关注
实名认证
文档贡献者

这个人很懒

1亿VIP精品文档

相关文档