文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

python解析本地html方法

2023-09-03 06:16

关注

Python爬虫每次运行时都会访问一次主机,为了避免增加主机访问负荷,一般都是在本地解析。Python解析本地html文件方法如下:

将html文件本地保存

在Python中打开html文件,可使用BeautifulSoup方法直接打开

soup=BeautifulSoup(open('ss.html',encoding='utf-8'),features='html.parser')

获取本地文件资料

a.先爬取主页的列表资料,其中同义内容使用“@”符号连接,首先在for循环内给定一个值获取标签内的链接link=x.get('href'),接着使用sub方法指定删除link。代码如下:
link=x.get('href')
change2=re.sub(link,'',s)

def draw_base_list(doc):    lilist=soup.find('div',{'class':'babynames-term-articles'}).findAll('article');    #爬取一级参数    for x in lilist:        str1=''        count=0        a='@'        EnName=x.find('a').text;        Mean=x.find('div',{'class':'meaning'}).text;        Sou=x.find('div',{'class','related'}).findAll('a')        Link=x.find('a').get('href');        for x in Sou:            if count!=0:#添加计数器判断是否为第一个,不是则添加@                str1=str1+a            s=str(x)  #将x转换为str类型来添加内容            str1=str1+s            count+=1        Source=str1        print(Source);     print(Meaning);

在for循环中指定多余内容删除

link=x.get('href')s=str(x)change1=re.sub('','',change2)change4=re.sub(' Baby Names','',change3)change5=re.sub('','',change4)change=re.sub(' ','',change5)

b.通过def draw_base_list(doc)函数向二级详情函数传递Link参数爬取详细信息,为避免频繁访问主机,我们同样将详情页的源代码保存至本地并解析

def draw_detail_list():    str1=‘’    meta="boy"    doc=BeautifulSoup(open('nn.html',encoding='utf-8'),features='html.parser')    Des=doc.find('div',{'class':'single-babyname-wrapper'}).findAll('p')    Gen=doc.find('div',{'class':'entry-meta'}).find('a')    #print(Gen)    g=str(Gen)    for i in Gen:        if meta in g:            Gender="boy"        else:            Gender="girl"    #print(Gender)    for x in Des:        #print(x)        if x.find('a')==None:  #该标签下有我们不需要的信息,查看源代码找到信息之间的联系,发现不需要的信息中都有链接            c=str(x)            change1=re.sub('

','',c) #与一级信息函数一样删除指定内容 change2=re.sub('

','',change1) change3=re.sub('\t','',change2) change=re.sub('\n','@',change3) str1=str1+change #Description=x.text #print(Description) Description=str1 #print(Description) data={ #将数据存进字典中方便将数据保存至csv文件或数据库中 'EnName':EnName, 'CnName':'', 'Gender':Gender, 'Meaning':Meaning, 'Description':Description, 'Source':Source, 'Character':'', #网页中没有的信息数据列为空 'Celebrity':'', 'WishTag':'' } #print(data)

c.将爬取下来的数据存入csv文件中

def draw_base_list(doc):    ......    #爬取一级参数    for x in lilist:        ......        for x in Sou:            ......        ......        draw_detail_list(Link,EnName,Meaning,Source)  #将数据传给二级信息函数def draw_detail_list(url,EnName,Meaning,Source):    ......    for i in Gen:        ......        for x in Des:        ......        data={        ......    }    write_dictionary_to_csv(data,'Names')  #将字典传给存放数据函数,并给定csv文件名def write_dictionary_to_csv(dict,filename):    file_name='{}.csv'.format(filename)    with open(file_name, 'a',encoding='utf-8') as f:         file_exists = os.path.isfile(filename)        w =csv.DictWriter(f, dict.keys(),delimiter=',', quotechar='"', lineterminator='\n',quoting=csv.QUOTE_ALL, skipinitialspace=True)        w.writerow(dict)

参考资料:python怎么解析本地html文件,python解析本地html方法_软件屋下载站

来源地址:https://blog.csdn.net/kaiser099/article/details/130864865

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯