品易云推流 关闭
文章详情页
文章 > 代理ip > 爬虫中如何使用代理服务器爬取数据

爬虫中如何使用代理服务器爬取数据

头像

小妮浅浅

2021-05-17 11:43:192276浏览 · 0收藏 · 0评论

一、爬取步骤

1、导入程序所需的库。使用代理服务器,可以新设函数(use_proxy)参数分别登录的网站和必要的代理服务器地址。然后定义代理服务器的具体IP地址和端口号。建立opener,其中opener需要添加相应的参数,即IP对象和urlib.request.HTTPHandler(固定)。然后将opener对象添加到全局对象。使用urlopen(url)打开特定的网站。

2、输入代理服务器的IP地址和端口号,输入打开的网页url,使用use_proxy()函数返回所需的data,因为数据很多,所以只显示数据的长度。

二、实例

import urllib.request
def use_proxy(url,proxy_addr):
proxy=urllib.request.ProxyHandler({"http":proxy_addr})
opener=urllib.request.build_opener(proxy,urllib.request.HTTPHandler)
urllib.request.install_opener(opener)
data=urllib.request.urlopen(url).read().decode("utf-8","ignore")
return data
proxy_addr="112.85.130.14:9999"
url="http://www.baidu.com"
data=use_proxy(url,proxy_addr)
print(len(data))

以上就是爬虫中使用代理服务器爬取数据的方法,大家看完具体的爬取流程后,了解有关的爬取思路,就可以进行实例操作。如果大家想测试使用下,可以尝试品易云http代理ip,免费测试包含各种类ip资源,调用IP量!

推荐操作环境:windows7系统、Python 3.9.1,DELL G3电脑。

关注

关注公众号,随时随地在线学习

本教程部分素材来源于网络,版权问题联系站长!

底部广告图