文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

beautifulsoup库怎么在python中使用

2023-06-06 10:54

关注

今天就跟大家聊聊有关beautifulsoup库怎么在python中使用,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

BeautifulSoup库简介

BeautifulSoup库在python中被美其名为“靓汤”,它和和 lxml 一样也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。BeautifulSoup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,若在没用安装此库的情况下, Python 会使用 Python默认的解析器lxml,lxml 解析器更加强大,速度更快,而BeautifulSoup库中的lxml解析器则是集成了单独的lxml的特点,使得功能更加强大。

需要注意的是,Beautiful Soup已经自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。因此在使用它的时候不需要考虑编码方式,仅仅需要说明一下原始编码方式就可以了。

使用pip命令工具安装BeautifulSoup4库

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ BeautifulSoup # 使用清华大学镜像源安装

2. BeautifulSoup库的主要解析器

在代码中 html.parser是一种针对于html网页页面的解析器,Beautiful Soup库还有其他的解析器,用于针对不同的网页

demo = 'https://www.baidu.com'soup = BeautifulSoup(demo,'html.parser')
解析器使用方法条件
bs4的html解析器BeautifulSoup(demo,‘html.parser')安装bs4库
lxml的html解析器BeautifulSoup(demo,‘lxml')pip install lxml
lxml的xml解析器BeautifulSoup(demo,‘xml')pip install lxml
html5lib的解析器BeautifulSoup(demo,‘html5lib')pip install html5lib

3. BeautifulSoup的简单使用

假如有一个简单的网页,提取百度搜索页面的一部分源代码为例

<!DOCTYPE html><html><head> <meta content="text/html;charset=utf-8" http-equiv="content-type" /> <meta content="IE=Edge" http-equiv="X-UA-Compatible" /> <meta content="always" name="referrer" /> <linkhref="https://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css" rel="stylesheet" type="text/css" /> <title>百度一下,你就知道 </title></head><body link="#0000cc"> <div > <div > <div >  <div >  <a href="http://news.baidu.com" rel="external nofollow" rel="external nofollow" name="tj_trnews">新闻</a>  <a href="https://www.hao123.com" rel="external nofollow" name="tj_trhao123">hao123 </a>  <a href="http://map.baidu.com" rel="external nofollow" name="tj_trmap">地图 </a>  <a href="http://v.baidu.com" rel="external nofollow" name="tj_trvideo">视频 </a>  <a href="http://tieba.baidu.com" rel="external nofollow" name="tj_trtieba">贴吧</a>  <a href="//www.baidu.com/more/" rel="external nofollow" name="tj_briicon">更多产品 </a>  </div> </div> </div> </div></body></html>

结合requests库和使用BeautifulSoup库的html解析器,对其进行解析有如下

import requestsfrom bs4 import BeautifulSoup# 使用Requests库加载页面代码r = requests.get('https://www.baidu.com')r.raise_for_status()  # 状态码返回r.encoding = r.apparent_encodingdemo = r.text# 使用BeautifulSoup库解析代码soup = BeautifulSoup(demo,'html.parser')  # 使用html的解析器print(soup.prettify())   # prettify 方式输出页面

beautifulsoup库怎么在python中使用

4. BeautifuSoup的类的基本元素

BeautifulSoup4将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,BeautifulSoup库有针对于html的标签数的特定元素,重点有如下三种

<p > ... </p>
基本元素说明
Tag标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾,格式:soup.a或者soup.p(获取a标签中或者p标签中的内容)
Name标签的名字,

的名字是‘p' 格式为:.name
Attributes标签的属性,字典形式组织,格式:.attrs
NavigableString标签内非属性字符串,<>…</>中的字符串,格式:.string
Comment标签内的字符串的注释部分,一种特殊的Comment类型

4.1 Tag

标签是html中的最基本的信息组织单元,使用方式如下

from bs4 import BeautifulSouphtml = 'https://www.baidu.com'bs = BeautifulSoup(html,"html.parser")print(bs.title) # 获取title标签的所有内容print(bs.head) # 获取head标签的所有内容print(bs.a)  # 获取第一个a标签的所有内容print(type(bs.a))# 类型

在Tag标签中最重要的就是html页面中的name哈attrs属性,使用方式如下

print(bs.name)print(bs.head.name)# head 之外对于其他内部标签,输出的值便为标签本身的名称print(bs.a.attrs) # 把 a 标签的所有属性打印输出了出来,得到的类型是一个字典。print(bs.a['class']) # 等价 bs.a.get('class') 也可以使用get方法,传入属性的名称,二者是等价的bs.a['class'] = "newClass" # 对这些属性和内容进行修改print(bs.a)del bs.a['class']# 对这个属性进行删除print(bs.a)

4.2 NavigableString

NavigableString中的string方法用于获取标签内部的文字

from bs4 import BeautifulSouphtml = 'https://www.baidu.com'bs = BeautifulSoup(html,"html.parser")print(bs.title.string)print(type(bs.title.string))

4.3 Comment

Comment 对象是一个特殊类型的 NavigableString 对象,其输出的内容不包括注释符号,用于输出注释中的内容

from bs4 import BeautifulSouphtml = 'https://www.baidu.com'bs = BeautifulSoup(html,"html.parser")print(bs.a)# 标签中的内容<a href="http://news.baidu.com" rel="external nofollow" rel="external nofollow" name="tj_trnews"><!--新闻--></a>print(bs.a.string) # 新闻print(type(bs.a.string)) # <class 'bs4.element.Comment'>

5. 基于bs4库的HTML内容的遍历方法

在HTML中有如下特定的基本格式,也是构成HTML页面的基本组成成分

beautifulsoup库怎么在python中使用

而在这种基本的格式下有三种基本的遍历流程

三种种遍历方式分别是从当前节点出发。对之上或者之下或者平行的格式以及关系进行遍历

5.1 下行遍历

下行遍历有三种遍历的属性,分别是

属性说明
.contents子节点的列表,将所有儿子节点存入列表
.children子节点的迭代类型,用于循环遍历儿子节点
.descendants子孙节点的迭代类型,包含所有子孙节点,用于循环遍历

使用举例

soup = BeautifulSoup(demo,'html.parser') # 循环遍历儿子节点for child in soup.body.children:print(child)# 循环遍历子孙节点 for child in soup.body.descendants: print(child) # 输出子节点的列表形式print(soup.head.contents)print(soup.head.contents[1])# 用列表索引来获取它的某一个元素

5.2 上行遍历

上行遍历有两种方式


属性说明
.parent节点的父亲标签
.parents节点先辈标签的迭代类型,用于循环遍历先辈节点,返回一个生成器

使用举例

soup = BeautifulSoup(demo,'html.parser') for parent in soup.a.parents:if parent is None:parent(parent)else:print(parent.name)

5.3 平行遍历

平行遍历有四种属性

属性说明
.next_sibling返回按照HTML文本顺序的下一个平行节点标签
.previous_sibling返回按照HTML文本顺序的上一个平行节点标签
.next_siblings迭代类型,返回按照html文本顺序的后续所有平行节点标签
.previous_siblings迭代类型,返回按照html文本顺序的前序所有平行节点标签

beautifulsoup库怎么在python中使用

平行遍历举例如下

for sibling in soup.a.next_sibling:print(sibling)# 遍历后续节点for sibling in soup.a.previous_sibling:print(sibling)# 遍历

5.4 其他遍历


属性说明
.strings如果Tag包含多个字符串,即在子孙节点中有内容,可以用此获取,而后进行遍历
.stripped_strings与strings用法一致,可以去除掉那些多余的空白内容
.has_attr判断Tag是否包含属性

6. 文件树搜索

使用soup.find_all(name,attrs,recursive,string,**kwargs)方法,用于返回一个列表类型,存储查找的结果

6.1 name参数

如果是指定的字符串:会查找与字符串完全匹配的内容,如下

a_list = bs.find_all("a")print(a_list)# 将会返回所有包含a标签的内容

如果是使用正则表达式:将会使用BeautifulSoup4中的search()方法来匹配内容,如下

from bs4 import BeautifulSoupimport rehtml = 'https://www.baidu.com'bs = BeautifulSoup(html,"html.parser")t_list = bs.find_all(re.compile("a"))for item in t_list: print(item)# 输出列表

如果传入一个列表:BeautifulSoup4将会与列表中的任一元素匹配到的节点返回,如下

t_list = bs.find_all(["meta","link"])for item in t_list:print(item)

如果传入一个函数或者方法:将会根据函数或者方法来匹配

from bs4 import BeautifulSouphtml = 'https://www.baidu.com'bs = BeautifulSoup(html,"html.parser")def name_is_exists(tag):  return tag.has_attr("name")t_list = bs.find_all(name_is_exists)for item in t_list:  print(item)

6.2 attrs参数

并不是所有的属性都可以使用上面这种方式进行搜索,比如HTML的data属性,用于指定属性搜索

t_list = bs.find_all(data-foo="value")

6.3 string参数

通过通过string参数可以搜索文档中的字符串内容,与name参数的可选值一样,string参数接受字符串,正则表达式,列表

from bs4 import BeautifulSoupimport rehtml = 'https://www.baidu.com'bs = BeautifulSoup(html, "html.parser")t_list = bs.find_all(attrs={"data-foo": "value"})for item in t_list: print(item)t_list = bs.find_all(text="hao123")for item in t_list: print(item)t_list = bs.find_all(text=["hao123", "地图", "贴吧"])for item in t_list: print(item)t_list = bs.find_all(text=re.compile("\d"))for item in t_list: print(item)

使用find_all()方法的时,常用到正则表达式的形式import re如下所示

soup.find_all(sring = re.compile('pyhton'))# 指定查找内容# 或者指定使用正则表达式要搜索的内容sring = re.compile('pyhton')# 字符为pythonsoup.find_all(string)# 调用方法模板

6.4 常用的fiid()方法如下

beautifulsoup库怎么在python中使用

看完上述内容,你们对beautifulsoup库怎么在python中使用有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注编程网行业资讯频道,感谢大家的支持。

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯