文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Python scrapy框架爬取瓜子二

2023-01-31 00:37

关注

项目实施依赖:

python,scrapy ,fiddler

scrapy安装依赖的包:

可以到https://www.lfd.uci.edu/~gohlke/pythonlibs/  下载 pywin32,lxml,Twisted,scrapy然后pip安装

项目实施开始:

1、创建scrapy项目:cmd中cd到需创建的文件目录下

scrapy  startproject guazi
View Code

2、创建爬虫:cd到创建好的项目下

1 scrapy genspider gz guazi.com
View Code

3、分析目标网址:

  第一次我直接用的谷歌浏览器的抓包分析,取得UA和Cookies请求,返回的html数据完全缺失,分析可能是携带的Cookies

有问题,然后就用fiddler抓包才,得到Cookies与谷歌上得到Cookies多了UA,时间等参数,

4、将UA,Cookies添加到下载中间中去:

1 class Guzi1DownloaderMiddleware(object):
2     def process_request(self, request, spider):
3             # 需要对得到的cookies处理成字典类型
4         request.cookies={}
5         request.headers["User-Agent"]=""
View Code

5、在settings中将DOWNLOADER_MIDDLEWARES打开

6、在spiders目录下找到gz.py开始编写爬虫逻辑处理

 1 import scrapy
 2 import time
 3 
 4 class GzSpider(scrapy.Spider):
 5     name = 'gz'
 6     allowed_domains = ['guazi.com']
 7     start_urls = ['https://www.guazi.com/cd/buy/0']
 8 
 9     def parse(self, response):
10         # 得到页面上所有车辆的url
11         url_list = response.xpath('//ul[@class="carlist clearfix js-top"]//li/a/@href').extract()
12         url_list = [response.urljoin(url) for url in url_list]
13         url_list = [url.replace("cq", "cd") for url in url_list]
14         for url in url_list:
15             yield scrapy.Request(url=url, callback=self.parse1, dont_filter=True)
16         
17         # 获取下一页的url
18         next_url = response.urljoin(response.xpath('//span[text()="下一页"]/../@href').extract_first())
19         if next_url:
20             yield scrapy.Request(url=next_url, callback=self.parse, dont_filter=True)
21         time.sleep(2)
22 
23     def parse1(self, response):
24         # 判断是否有数据
25         if response.xpath('//h2/text()').extract_first():
26             print(response.xpath('//h2/text()').extract_first().strip())
27             item = {}
28             item["车型"] = response.xpath('//h2/text()').extract_first().strip()
29             item["选车类型"] = response.xpath('//h2/span/text()').extract_first()
30             item["价格/万"] = response.xpath('//div[@class="pricebox js-disprice"]/span[1]/text()').extract_first().strip()
31             item["新车价格"] = response.xpath('//div[@class="pricebox js-disprice"]/span[2]/text()').extract_first().strip()
32             item["上牌时间"] = response.xpath('//ul[@class="basic-eleven clearfix"]/li[1]/div/text()').extract_first().strip()
33             item["公里数"] = response.xpath('//ul[@class="basic-eleven clearfix"]/li[2]/div/text()').extract_first().strip()
34             item["排量"] = response.xpath('//ul[@class="basic-eleven clearfix"]/li[3]/div/text()').extract_first().strip()
35             item["变速箱"] = response.xpath('//ul[@class="basic-eleven clearfix"]/li[4]/div/text()').extract_first().strip()
36             item["配置信息"] = response.xpath('//span[@class="type-gray"]//text()').extract()
37             item["网址"] = response.url
38             yield item
View Code

7、启动爬虫并保存为csv文件

scrapy crawl gz -o guanzi.csv
View Code

8、最后得到了想要的二手车信息,贴上部分截图

 

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯