python爬虫入门课件.pptVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
控制访问频率 使用代理IP 目录 一、引言 三、网页请求 四、网页解析 五、开始采集 六、如何应对反爬 七、高级爬虫 爬虫工作原理 HTML Python基本知识 找规律构建url requests库 如何解析网页 BeautifulSoup re库的使用 条件、循环语句 try。。。Except异常处理 数据存储 控制访问频率 伪装装成浏览器 使用代理IP selenium+Firefox(36版) 抓包应对动态网页 二、准备知识 什么是动态网页 selenium+Firefox(36版) Win/mac 火狐资源链接/s/1kUU2uCR Selenuim默认支持firefox浏览器,不需要再安装浏览器驱动。 selenium对火狐浏览器新版本支持不好,经常无法自动化操作。经测试36版本,完美运行。 Selenium基本知识 from selenium import webdriver from bs4 import BeautifulSoup 初始化浏览器 driver = webdriver.Firefox() 打开某个网址 driver.get(url) Selenium基本知识 如果网站需要输入登录账号密码 这里用到firepath找到目标位置的xpath 找到输入账号框,清除框内信息,再输入你的账号 driver.find_element_by_xpath(xpath).clear() driver.find_element_by_xpath(xpath).send_keys(你的账号) 找到输入密码框,清除框内信息,再输入你的密码 driver.find_element_by_xpath(xpath).clear() driver.find_element_by_xpath(xpath).send_keys(你的密码) Selenium基本知识 定位“点击登录”框的位置的xpath,执行登录 driver.find_element_by_xpath(xpath).click() 访问你想爬的网页的网址 driver.get(url) Selenium基本知识 获取该网页的源码 html = driver.page_source BeautifulSoup定位标签 bsObj = BeautifulSoup(html,‘html.parser’) 再之后如何操作很简单,我就不写了啊,视频里有 动态网页 动态网页的特点是: 1、浏览器上面你看到的数据,找不到与之对应的html标签。 或者即使找到与之对应的标签,标签内部也没有数据 2、网址规律很难发现 爬动态网页的难点: 难以构建网址 抓包应对动态网页 动态网页 动态网页 动态网页 动态网页 动态网页 数据科学之路 Thanks! 发现规律定制url 发现规律定制url 这里的url规律是页码数减1后乘以20 构建网址 Base_url = ‘/tag?start={num}’ for page in range(1,94,1): Num = 1 url = Base_url.format(num=Num*20) print(url) ‘/tag?start=0’ ‘/tag?start=20’ ‘/tag?start=40’ …… requests库 Requests is an elegant and simple HTTP library for Python, built for human beings. Requests是一个优雅简洁的Python HTTP库,给人类使用。 requests常用方法 最普通的访问 url = ‘/u/1562c7f164’ r = requests.get(url) 伪装成浏览器的访问 Headers = {‘User-Agent’: ’Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’} r = requests.get(url,head

文档评论(0)

kbook + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档