文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

python beautifulsoup4模块怎么用

2023-06-30 14:35

关注

本篇内容主要讲解“python beautifulsoup4模块怎么用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“python beautifulsoup4模块怎么用”吧!

一、BeautifulSoup4 基础知识补充

BeautifulSoup4 是一款 python 解析库,主要用于解析 HTML 和 XML,在爬虫知识体系中解析 HTML 会比较多一些,

该库安装命令如下:

pip install beautifulsoup4

BeautifulSoup 在解析数据时,需依赖第三方解析器,常用解析器与优势如下所示:

接下来用一段自定义的 HTML 代码来演示 beautifulsoup4 库的基本使用,测试代码如下:

<html>  <head>    <title>测试bs4模块脚本</title>  </head>  <body>    <h2>橡皮擦的爬虫课</h2>    <p>用一段自定义的 HTML 代码来演示</p>  </body></html>

使用 BeautifulSoup 对其进行简单的操作,包含实例化 BS 对象,输出页面标签等内容。

from bs4 import BeautifulSouptext_str = """<html><head><title>测试bs4模块脚本</title></head><body><h2>橡皮擦的爬虫课</h2><p>用1段自定义的 HTML 代码来演示</p><p>用2段自定义的 HTML 代码来演示</p></body></html>"""# 实例化 Beautiful Soup 对象soup = BeautifulSoup(text_str, "html.parser")# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化# soup = BeautifulSoup(open('test.html'))print(soup)# 输入网页标题 title 标签print(soup.title)# 输入网页 head 标签print(soup.head)# 测试输入段落标签 pprint(soup.p) # 默认获取第一个

我们可以通过 BeautifulSoup 对象,直接调用网页标签,这里存在一个问题,通过 BS 对象调用标签只能获取排在第一位置上的标签,如上述代码中,只获取到了一个 p 标签,如果想要获取更多内容,请继续阅读。

学习到这里,我们需要了解 BeautifulSoup 中的 4 个内置对象:

下述代码为你演示这几种对象出现的场景,注意代码中的相关注释:

from bs4 import BeautifulSouptext_str = """<html><head><title>测试bs4模块脚本</title></head><body><h2>橡皮擦的爬虫课</h2><p>用1段自定义的 HTML 代码来演示</p><p>用2段自定义的 HTML 代码来演示</p></body></html>"""# 实例化 Beautiful Soup 对象soup = BeautifulSoup(text_str, "html.parser")# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化# soup = BeautifulSoup(open('test.html'))print(soup)print(type(soup))  # <class 'bs4.BeautifulSoup'># 输入网页标题 title 标签print(soup.title)print(type(soup.title)) # <class 'bs4.element.Tag'>print(type(soup.title.string)) # <class 'bs4.element.NavigableString'># 输入网页 head 标签print(soup.head)

对于 Tag 对象,有两个重要的属性,是 name 和 attrs

from bs4 import BeautifulSouptext_str = """<html><head><title>测试bs4模块脚本</title></head><body><h2>橡皮擦的爬虫课</h2><p>用1段自定义的 HTML 代码来演示</p><p>用2段自定义的 HTML 代码来演示</p><a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a></body></html>"""# 实例化 Beautiful Soup 对象soup = BeautifulSoup(text_str, "html.parser")print(soup.name) # [document]print(soup.title.name) # 获取标签名 titleprint(soup.html.body.a) # 可以通过标签层级获取下层标签print(soup.body.a) # html 作为一个特殊的根标签,可以省略print(soup.p.a) # 无法获取到 a 标签print(soup.a.attrs) # 获取属性

上述代码演示了获取 name 属性和 attrs 属性的用法,其中 attrs 属性得到的是一个字典,可以通过键获取对应的值。

获取标签的属性值,在 BeautifulSoup 中,还可以使用如下方法:

print(soup.a["href"])print(soup.a.get("href"))

获取 NavigableString 对象 获取了网页标签之后,就要获取标签内文本了,通过下述代码进行。

print(soup.a.string)

除此之外,你还可以使用 text 属性和 get_text() 方法获取标签内容。

print(soup.a.string)print(soup.a.text)print(soup.a.get_text())

还可以获取标签内所有文本,使用 strings 和 stripped_strings 即可。

print(list(soup.body.strings)) # 获取到空格或者换行print(list(soup.body.stripped_strings)) # 去除空格或者换行

扩展标签/节点选择器之遍历文档树

直接子节点

标签(Tag)对象的直接子元素,可以使用 contents 和 children 属性获取。

from bs4 import BeautifulSouptext_str = """<html><head><title>测试bs4模块脚本</title></head><body><div id="content"><h2>橡皮擦的爬虫课<span>最棒</span></h2>            <p>用1段自定义的 HTML 代码来演示</p>            <p>用2段自定义的 HTML 代码来演示</p>            <a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a></div>        <ul class="nav">            <li>首页</li>            <li>博客</li>            <li>专栏课程</li>        </ul></body></html>"""# 实例化 Beautiful Soup 对象soup = BeautifulSoup(text_str, "html.parser")# contents 属性获取节点的直接子节点,以列表的形式返回内容print(soup.div.contents) # 返回列表# children 属性获取的也是节点的直接子节点,以生成器的类型返回print(soup.div.children) # 返回 <list_iterator object at 0x00000111EE9B6340>

请注意以上两个属性获取的都是直接子节点,例如 h2 标签内的后代标签 span ,不会单独获取到。

如果希望将所有的标签都获取到,使用 descendants 属性,它返回的是一个生成器,所有标签包括标签内的文本都会单独获取。

print(list(soup.div.descendants))

其它节点的获取(了解即可,即查即用)

文档树搜索相关函数

第一个要学习的函数就是 find_all() 函数,原型如下所示:

find_all(name,attrs,recursive,text,limit=None,**kwargs)

上述两个参数的用法示例如下:

print(soup.find_all('li')) # 获取所有的 liprint(soup.find_all(attrs={'class': 'nav'})) # 传入 attrs 属性print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想print(soup.find_all(['a','p'])) # 传递列表
print(soup.body.div.find_all(['a','p'],recursive=False)) # 传递列表
print(soup.find_all(text='首页')) # ['首页']print(soup.find_all(text=re.compile("^首"))) # ['首页']print(soup.find_all(text=["首页",re.compile('课')])) # ['橡皮擦的爬虫课', '首页', '专栏课程']
print(soup.find_all(class_ = 'nav'))print(soup.find_all(class_ = 'nav li'))

还需要注意网页节点中,有些属性在搜索中不能作为kwargs参数使用,比如html5 中的 data-*属性,需要通过attrs参数进行匹配。

与 find_all()方法用户基本一致的其它方法清单如下:

CSS 选择器 该小节的知识点与pyquery有点撞车,核心使用select()方法即可实现,返回数据是列表元组。

在通过属性查找时,还有一些技巧可以使用,例如:

print(soup.select('ul[class^="na"]'))
print(soup.select('ul[class*="li"]'))

二、爬虫案例

BeautifulSoup 的基础知识掌握之后,在进行爬虫案例的编写,就非常简单了,本次要采集的目标网站 ,该目标网站有大量的艺术二维码,可以供设计大哥做参考。

python beautifulsoup4模块怎么用

下述应用到了 BeautifulSoup 模块的标签检索与属性检索,完整代码如下:

from bs4 import BeautifulSoupimport requestsimport logginglogging.basicConfig(level=logging.NOTSET)def get_html(url, headers) -> None:    try:        res = requests.get(url=url, headers=headers, timeout=3)    except Exception as e:        logging.debug("采集异常", e)    if res is not None:        html_str = res.text        soup = BeautifulSoup(html_str, "html.parser")        imgs = soup.find_all(attrs={'class': 'lazy'})        print("获取到的数据量是", len(imgs))        datas = []        for item in imgs:            name = item.get('alt')            src = item["src"]            logging.info(f"{name},{src}")            # 获取拼接数据            datas.append((name, src))        save(datas, headers)def save(datas, headers) -> None:    if datas is not None:        for item in datas:            try:                # 抓取图片                res = requests.get(url=item[1], headers=headers, timeout=5)            except Exception as e:                logging.debug(e)            if res is not None:                img_data = res.content                with open("./imgs/{}.jpg".format(item[0]), "wb+") as f:                    f.write(img_data)    else:        return Noneif __name__ == '__main__':    headers = {        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36"    }    url_format = "http://www.9thws.com/#p{}"    urls = [url_format.format(i) for i in range(1, 2)]    get_html(urls[0], headers)

本次代码测试输出采用的 logging 模块实现,效果如下图所示。 测试仅采集了 1 页数据,如需扩大采集范围,只需要修改 main 函数内页码规则即可。 ==代码编写过程中,发现数据请求是类型是 POST,数据返回格式是 JSON,所以本案例仅作为 BeautifulSoup 的上手案例吧== 

python beautifulsoup4模块怎么用

到此,相信大家对“python beautifulsoup4模块怎么用”有了更深的了解,不妨来实际操作一番吧!这里是编程网网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯