文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

python如何爬取壁纸网站

2023-06-14 09:34

关注

这篇文章主要介绍python如何爬取壁纸网站,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

本次爬虫用到的网址是:

http://www.netbian.com/index.htm: 彼岸桌面.里面有很多的好看壁纸,而且都是可以下载高清无损的,还比较不错,所以我就拿这个网站练练手。

作为一个初学者,刚开始的时候,无论的代码的质量如何,总之代码只要能够被正确完整的运行那就很能够让自己开心的,如同我们的游戏一样,能在短时间内得到正向的反馈,我们就会更有兴趣去玩。

学习也是如此,只要我们能够在短期内得到学习带来的反馈,那么我们的对于学习的欲望也是强烈的。

作为一个菜鸡,能够完整的完整此次爬虫程序的编写,那便是一个最大的收货,但其实我在此次过程中的收获远不止此。

好的代码其实应该具有以下特性

  1. 能够满足最关键的需求

  2. 容易理解

  3. 有充分的注释

  4. 使用规范的命名

  5. 没有明显的安全问题

  6. 经过充分的测试

就以充分的测试为例,经常写代码的就应该知道,尽管多数时候你的代码没有BUG,但那仅仅说明只是大多数情况下是稳定的,但是在某些条件下就会出错(达到出错条件,存在逻辑问题的时候等)。这是肯定的。至于什么原因,不同的代码有不同的原因。如果代码程序都是一次就能完善的,那么我们使用的软件的软件就不会经常更新了。其他其中的道理就不一 一道说了,
久而自知

好的代码一般具有的5大特性

便于维护
2.可复用
3.可扩展
4.强灵活性
5.健壮性

经过我的代码运行我发现时间复杂度比较大,因此这是我将要改进的地方,但也不止于此。也有很多利用得不合理的地方,至于存在的不足的地方就待我慢慢提升改进吧!

路过的大佬欢迎留下您宝贵的代码修改意见,

完整代码如下

import osimport bs4import reimport timeimport requestsfrom bs4 import BeautifulSoupdef getHTMLText(url, headers):  """向目标服务器发起请求并返回响应"""  try:    r = requests.get(url=url, headers=headers)    r.encoding = r.apparent_encoding    soup = BeautifulSoup(r.text, "html.parser")    return soup  except:    return ""def CreateFolder():  """创建存储数据文件夹"""  flag = True  while flag == 1:    file = input("请输入保存数据文件夹的名称:")    if not os.path.exists(file):      os.mkdir(file)      flag = False    else:      print('该文件已存在,请重新输入')      flag = True  # os.path.abspath(file) 获取文件夹的绝对路径  path = os.path.abspath(file) + "\\"  return pathdef fillUnivList(ulist, soup):  """获取每一张图片的原图页面"""  # [0]使得获得的ul是 <class 'bs4.BeautifulSoup'> 类型  div = soup.find_all('div', 'list')[0]  for a in div('a'):    if isinstance(a, bs4.element.Tag):      hr = a.attrs['href']      href = re.findall(r'/desk/[1-9]\d{4}.htm', hr)      if bool(href) == True:        ulist.append(href[0])  return ulistdef DownloadPicture(left_url,list,path):  for right in list:    url = left_url + right    r = requests.get(url=url, timeout=10)    r.encoding = r.apparent_encoding    soup = BeautifulSoup(r.text,"html.parser")    tag = soup.find_all("p")    # 获取img标签的alt属性,给保存图片命名    name = tag[0].a.img.attrs['alt']    img_name = name + ".jpg"    # 获取图片的信息    img_src = tag[0].a.img.attrs['src']    try:      img_data = requests.get(url=img_src)    except:      continue    img_path = path + img_name    with open(img_path,'wb') as fp:      fp.write(img_data.content)    print(img_name, "  ******下载完成!")def PageNumurl(urls):  num = int(input("请输入爬取所到的页码数:"))  for i in range(2,num+1):    u = "http://www.netbian.com/index_" + str(i) + ".htm"    urls.append(u)  return urlsif __name__ == "__main__":  uinfo = []  left_url = "http://www.netbian.com"  urls = ["http://www.netbian.com/index.htm"]  headers = {    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"  }  start = time.time()  # 1.创建保存数据的文件夹  path = CreateFolder()  # 2. 确定要爬取的页面数并返回每一页的链接  PageNumurl(urls)  n = int(input("访问的起始页面:"))  for i in urls[n-1:]:    # 3.获取每一个页面的首页数据文本    soup = getHTMLText(i, headers)    # 4.访问原图所在页链接并返回图片的链接    page_list = fillUnivList(uinfo, soup)    # 5.下载原图    DownloadPicture(left_url, page_list, path)  print("全部下载完成!", "共" + str(len(os.listdir(path))) + "张图片")  end = time.time()  print("共耗时" + str(end-start) + "秒")

运行

python如何爬取壁纸网站

部分展示结果如下:

python如何爬取壁纸网站

以上是“python如何爬取壁纸网站”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注编程网行业资讯频道!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯