当我们大量的处理爬虫的时候,我们的IP地址容易被封掉 这个时候我们就需要代理IP来帮助我们完成接下来的任务了
这次我采用的是Requests模块来完成请求的
######注意事项在代码中有展示
上代码
import urllib.request
import requests
# 查询IP http://ip.chinaz.com/getip.aspx
url = "http://ip.chinaz.com/getip.aspx"
print("原有IP: "+requests.get(url).text)
# 构建一个代理IP的格式
#IP
ip_data = "47.94.230.42"
#端口
port_data = "9999"
#固定IP格式
new_data = {
"http": ip_data + ":" + port_data
}
# proxies=IP resquests模块构建请求
print("代理后的IP: "+requests.get(url, proxies=new_data).text)
#切换回自己的IP是 当 当前代理IP失效后向代理IP提供商获取新IP的时候需要使用自己的ip
print("切换回自己的IP: "+requests.get(url, proxies={"http": ""}).text)