您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息

一篇文章教会你利用Python网络爬虫实现妖怪信息的分类采集

2020/6/12 8:58:56发布126次查看

点击上方“it共享之家”,进行关注
回复“资料”可获赠python学习福利
【一、项目背景】
   中国妖怪百集( c-china-(中国) baigui-百鬼) 现已更名为知妖。
知妖网是一个开放的在线“妖怪”资料库。致力于收集、整理、介绍、分享古人文献中的“妖怪” , 收录古文献中的“妖怪”资料,让更多的人能够完整,系统地了解中国“妖怪”文化。
   今天来教大家如何使用python来爬取知妖网的妖怪文章,分类保存,写入文档。
【二、项目目标】
  创建一个文件夹, 分类保存所有妖怪文章。下载成功结果显示控制台。
【三、涉及的库和网站】
涉及的库:requests、lxml、fake_useragent、time、os
软件:pycharm
 
【四、项目分析】
1、如何多网页请求
   首先需要解决如何对下一页的网址进行请求的问题。可以点击下一页的按钮,观察到网站的变化分别如下所示:
l(html)    t = parse_html.xpath('//div[@class="post-inner post-hover"]/h2')    for i in t:        goblin_herf = i.xpath('./a/@href')[0].strip()  # 二级页面链接        name = i.xpath('.//a/text()')[0].strip()  # 对应文件夹的名字        os.mkdir("././妖怪/{}".format(name))  # 拼接文件夹        print(name, goblin_herf)
5、对二级页面发生请求,xpath解析数据,获取文章内容。
print(name, goblin_herf)      html2 = self.get_page(goblin_herf)  # 第二个发生请求      parse_html2 = etree.html(html2)      r = parse_html2.xpath('//div[@class="entry"]/p/text()')
6、for遍历文章内容,文章异常处理,写入文档。
for rte in r:        # print(rte)w        try:            with open("./妖怪/{}/{}.txt".format(name, name), "a", encoding='utf-8') as f:                f.write(rte)  # 把内容存储到对应名字的文件里        except oserror:            pass        continue
7、调用方法,实现功能。
url = self.url.format(page)      print(url)      html = self.get_page(url)      self.parse_page(html)
8、time模块,设置时间延迟,(防止ip被封)。
time.sleep(1) """时间延时"""
【六、效果展示】
1、点击运行,输入起始页,终止页。
  
2、将下载成功信息显示在控制台。
3、分类列表。
4、文章展示。
【七、总结】
   1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。
   2、本文章就python爬取知妖网,在应用中出现的难点和重点,以及如何防止反爬,做出了相对于的解决方案。
   3、希望通过这个项目,能够帮助了解xpath,字符串是如何拼接,format函数如何运用。
   4、本文基于python网络爬虫,利用爬虫库,实现分类写入文档。实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。
   5、需要本文源码的小伙伴,后台回复“妖怪介绍”四个字,即可获取。

Python进阶学习交流
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product