【相关推荐:python3视频教程 】
一、beautifulsoup4库介绍1. 介绍beautiful soup 是一个可以从html或xml文件中提取数据的python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.beautiful soup会帮你节省数小时甚至数天的工作时间。
beautifulsoup4将网页转换为一颗dom树:
2. 下载模块1. window电脑点击win键+ r,输入:cmd
2. 安装beautifulsoup4,输入对应的pip命令:pip install beautifulsoup4 ,我已经安装过了出现版本就安装成功了
3. 导包
form bs4 import beautifulsoup
3. 解析库beautifulsoup在解析时实际上依赖解析器,它除了支持python标准库中的html解析器外,还支持一 些第三方解析器(比如lxml):
解析器使用方法优势劣势
python标准库 beautifulsoup(html,’html.parser’) python的内置标准库、执行速度适中、文档容错能力强 python 2.7.3及python3.2.2之前的版本文档容错能力差
lxml html解析库 beautifulsoup(html,’lxml’) 速度快、文档容错能力强 需要安装c语言库
lxml xml解析库 beautifulsoup(html,‘xml' 速度快、唯一支持xml的解析器 需要安装c语言库
htm5lib解析库 beautifulsoup(html,’htm5llib’) 最好的容错性、以浏览器的方式解析文档、生成htmls格式的文档 速度慢、不依赖外部扩展
对于我们来说,我们最常使用的解析器是lxml html解析器,其次是html5lib.
二、上手操作1. 基础操作1. 读取html字符串:
from bs4 import beautifulsouphtml = '''<p class="panel"> <p class="panel-heading"> <h4>hello</h4> </p> <p class="panel_body"> <ul class="list" id="list-1" name="element"> <li class="element">foo</li> <li class="element">bar</li> <li class="element">jay</li> </ul> <ul class="list list-small" id="list-2"> <li class="element">foo</li> <a href="https://www.baidu.com">百度官网</a> <li class="element">bar</li> </ul> </p></p> '''# 创建对象soup = beautifulsoup(html, 'lxml')
2. 读取html文件:
from bs4 import beautifulsoupsoup = beautifulsoup(open('index.html'),'lxml')
3. 基本方法
from bs4 import beautifulsouphtml = '''<p class="panel"> <p class="panel-heading"> <h4>hello</h4> </p> <p class="panel_body"> <ul class="list" id="list-1" name="element"> <li class="element">foo</li> <li class="element">bar</li> <li class="element">jay</li> </ul> <ul class="list list-small" id="list-2"> <li class="element">foo</li> <a href="https://www.baidu.com">百度官网</a> <li class="element">bar</li> </ul> </p></p> '''# 创建对象soup = beautifulsoup(html, 'lxml')# 缩进格式print(soup.prettify())# 获取title标签的所有内容print(soup.title)# 获取title标签的名称print(soup.title.name)# 获取title标签的文本内容print(soup.title.string)# 获取head标签的所有内容print(soup.head)# 获取第一个p标签中的所有内容print(soup.p)# 获取第一个p标签的id的值print(soup.p[id])# 获取第一个a标签中的所有内容print(soup.a)# 获取所有的a标签中的所有内容print(soup.find_all(a))# 获取id=u1print(soup.find(id=u1))# 获取所有的a标签,并遍历打印a标签中的href的值for item in soup.find_all(a): print(item.get(href))# 获取所有的a标签,并遍历打印a标签的文本值for item in soup.find_all(a): print(item.get_text())
2. 对象种类beautiful soup将复杂html文档转换成一个复杂的树形结构,每个节点都是python对象,所有对象可以归纳为4种: tag , navigablestring , beautifulsoup , comment .
(1)tag:tag通俗点讲就是html中的一个个标签,例如:
soup = beautifulsoup('<b class="boldest">extremely bold</b>','lxml')tag = soup.bprint(tag)print(type(tag))
输出结果:
<b class="boldest">extremely bold</b><class 'bs4.element.tag'>
tag有很多方法和属性,在 遍历文档树 和 搜索文档树 中有详细解释.现在介绍一下tag中最重要的属性: name和attributes:
name属性:
print(tag.name)# 输出结果:b# 如果改变了tag的name,那将影响所有通过当前beautiful soup对象生成的html文档:tag.name = b1print(tag)# 输出结果:<b1 class="boldest">extremely bold</b1>
attributes属性:
# 取clas属性print(tag['class'])# 直接”点”取属性, 比如: .attrs :print(tag.attrs)
tag 的属性可以被添加、修改和删除:
# 添加 id 属性tag['id'] = 1# 修改 class 属性tag['class'] = 'tl1'# 删除 class 属性del tag['class']
(2)navigablestring:用.string获取标签内部的文字:
print(soup.b.string)print(type(soup.b.string))
(3)beautifulsoup:表示的是一个文档的内容,可以获取它的类型,名称,以及属性:
print(type(soup.name))# <type 'unicode'>print(soup.name)# [document]print(soup.attrs)# 文档本身的属性为空
(4)comment:是一个特殊类型的 navigablestring 对象,其输出的内容不包括注释符号。
print(soup.b)print(soup.b.string)print(type(soup.b.string))
3. 搜索文档树1.find_all(name, attrs, recursive, text, **kwargs)
(1)name 参数:name 参数可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉
匹配字符串:查找与字符串完整匹配的内容,用于查找文档中所有的<a>标签
a_list = soup.find_all(a)print(a_list)
匹配正则表达式:如果传入正则表达式作为参数,beautiful soup会通过正则表达式的 match() 来匹配内容
# 返回所有表示<body>和<b>标签for tag in soup.find_all(re.compile(^b)): print(tag.name)
匹配列表:如果传入列表参数,beautiful soup会将与列表中任一元素匹配的内容返回
# 返回所有所有<p>标签和<a>标签:soup.find_all([p, a])
(2)kwargs参数
soup.find_all(id='link2')
(3)text参数:通过 text 参数可以搜搜文档中的字符串内容,与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表
# 匹配字符串soup.find_all(text=a)# 匹配正则soup.find_all(text=re.compile(^b))# 匹配列表soup.find_all(text=[p, a])
4. css选择器我们在使用beautifulsoup解析库时,经常会结合css选择器来提取数据。
注意:以下讲解css选择器只选择标签,至于获取属性值和文本内容我们后面再讲。
1. 根据标签名查找:比如写一个 li 就会选择所有li 标签, 不过我们一般不用,因为我们都是精确到标签再提取数据的
from bs4 import beautifulsouphtml = '''<p class="panel"> <p class="panel-heading"> <h4>hello</h4> </p> <p class="panel_body"> <ul class="list" id="list-1" name="element"> <li class="element">foo</li> <li class="element">bar</li> <li class="element">jay</li> </ul> <ul class="list list-small" id="list-2"> <li class="element">foo</li> <a href="https://www.baidu.com">百度官网</a> <li class="element">bar</li> </ul> </p></p> '''# 创建对象soup = beautifulsoup(html, 'lxml')# 1. 根据标签名查找:查找li标签print(soup.select(li))
输出结果:
[<li class="element">foo</li>, <li class="element">bar</li>, <li class="element">jay</li>, <li class="element">foo</li>, <li class="element">bar</li>]
2. 根据类名class查找。.1ine, 即一个点加line,这个表达式选的是class= line 的所有标签,.”代表class
print(soup.select(.panel_body))
输出结果:
</ul><ul class="list list-small" id="list-2"><li class="element">foo</li><li class="element">bar</li></ul></div>]
3. 根据id查找。#box,即一个#和box表示选取id-”box 的所有标签,“#”代表id
print(soup.select(#list-1))
输出结果:
[<ul class="list" id="list-1" name="element"><li class="element">foo</li><li class="element">bar</li><li class="element">jay</li></ul>]
4. 根据属性的名字查找。class属性和id属性较为特殊,故单独拿出来定义一个. 和“”来表示他们。
比如:input[ name=“username”]这个表达式查找name= username 的标签,此处注意和xpath语法的区别
print(soup.select('ul[ name=element]'))
输出结果:
[<ul class="list" id="list-1" name="element"><li class="element">foo</li><li class="element">bar</li><li class="element">jay</li></ul>]
5. 标签+类名或id的形式。
# 查找id为list-1的ul标签print(soup.select('ul#list-1'))print(-*20)# 查找class为list的ul标签print(soup.select('ul.list'))
输出结果:
[<ul class="list" id="list-1" name="element"><li class="element">foo</li><li class="element">bar</li><li class="element">jay</li></ul>]--------------------[<ul class="list" id="list-1" name="element"><li class="element">foo</li><li class="element">bar</li><li class="element">jay</li></ul>, <ul class="list list-small" id="list-2"><li class="element">foo</li><li class="element">bar</li></ul>]
6. 查找直接子元素
# 查找id=list-1的标签下的直接子标签liprint(soup.select('#list-1>li'))
输出结果:
[<li class="element">foo</li>, <li class="element">bar</li>, <li class="element">jay</li>]
7. 查找子孙标签
# .panel_body和li之间是一个空格,这个表达式查找id=”.panel_body”的标签下的子或孙标签liprint(soup.select('.panel_body li'))
输出结果:
[<li class="element">foo</li>, <li class="element">bar</li>, <li class="element">jay</li>, <li class="element">foo</li>, <li class="element">bar</li>]
8. 取某个标签的属性
# 1. 先取到<p class="panel_body">p = soup.select(.panel_body)[0]# 2. 再去下面的a标签下的href属性print(p.select('a')[0][href])
输出结果:
https://www.baidu.com
9. 获取文本内容有四种方式:
(a) string:获得某个标签下的文本内容,强调-一个标签,不含嵌我。 返回-个字符串
# 1. 先取到<p class="panel_body">p = soup.select(.panel_body)[0]# 2. 再去下面的a标签下print(p.select('a')[0].string)
输出结果:
百度官网
(b) strings:获得某个标签下的所有文本内容,可以嵌套。返回-一个生成器,可用list(生成器)转换为列表
print(p.strings)print(list(p.strings))
输出结果:
<generator object tag._all_strings at 0x000001aa58e525f0>['\n', '\n', 'foo', '\n', 'bar', '\n', 'jay', '\n', '\n', '\n', 'foo', '\n', '百度官网', '\n', 'bar', '\n', '\n']
(c)stripped.strings:跟(b)差不多,只不过它会去掉每个字符串头部和尾部的空格和换行符
print(p.stripped_strings)print(list(p.stripped_strings))
输出结果:
<generator object pageelement.stripped_strings at 0x000001f9995525f0>['foo', 'bar', 'jay', 'foo', '百度官网', 'bar']
(d) get.text():获取所有字符串,含嵌套. 不过会把所有字符串拼接为一个,然后返回
注意2:
前3个都是属性,不加括号;最后一个是函数,加括号。
print(p.get_text())
输出结果:
foobarjayfoo百度官网bar
【相关推荐:python3视频教程 】
以上就是一文搞懂python爬虫解析器beautifulsoup4的详细内容。