这篇文章给大家分享的是有关python中user-agent怎么反爬虫的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
1、说明
user-agent:是识别浏览器的一串字符串,相当于浏览器的身份证,在利用爬虫爬取网站数据时,频繁更换User-agent可以避免触发相应的反爬机制。
2、安装
需要就用到了fake-useragent包,直接在anaconda控制台安装fake-useragent包即可;
3、实例
form fake-useragent import UserAgent ua = UserAgent()headers = { 'User-Agent' : ua.random #随机生成一个UserAgent}url = 'https://www.baidu.com/'page = requests.get(url, headers=headers)
python的五大特点是什么
python的五大特点:1.简单易学,开发程序时,专注的是解决问题,而不是搞明白语言本身。2.面向对象,与其他主要的语言如C++和Java相比, Python以一种非常强大又简单的方式实现面向对象编程。3.可移植性,Python程序无需修改就可以在各种平台上运行。4.解释性,Python语言写的程序不需要编译成二进制代码,可以直接从源代码运行程序。5.开源,Python是 FLOSS(自由/开放源码软件)之一。
感谢各位的阅读!关于“python中user-agent怎么反爬虫”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!