技术文章 > Python爬虫 >  爬虫进阶 > 正文

python爬虫urllib库中parse模块的urlparse如何使用?

宋雪维

在python爬虫urllib库中,urllib.parse是url解析模块,提供了很多解析和组建 URL 的方法,其中urlunparse() 方法通过长度为6的可迭代对象,组建URL,本文向大家介绍python爬虫urllib库中parse模块的urlparse使用方法。

一、urlparse() 方法

可以将 URL 解析成 ParseResult 对象,实现url的识别和分段。

标准链接格式为:scheme://netloc/path;params?query#fragment

二、urlparse将url拆分为六个部分

urlparse(url, scheme='', allow_fragments=True)

三、参数说明

urlstring:必填,待解析的url;

scheme:默认的协议,如http,https。链接没有协议信息时生效;

allow_fragments:是否忽略fragment,如果设置False,fragment部分会被忽略,解析为path、params或者query的一部分,而fragment部分为空。当URL不包含params和query时候,fragment会被解析为path一部分;

四、拆分六个部分为:

1、协议(scheme)

2、域名(netloc)

3、路径(path)

4、路径参数(params)

5、查询参数(query)

6、片段(fragment)

五、使用实例

from urllib.parse import urlparse
# 该方法可以实现URL的识别和分段
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')
# 这里我们利用urlparse()方法进行了一个URL的解析。首先,输出了解析结果的类型,然后将结果也输出出来。
print(type(result), result)

输出

E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/3_1_3.py
<class 'urllib.parse.ParseResult'> ParseResult(scheme='http', netloc='www.baidu.com', path='
/index.html', params='user', query='id=5', fragment='comment')

以上就是python爬虫urllib库中parse模块的urlparse使用方法介绍,希望能帮助你理解哦~更多python爬虫推荐:python爬虫教程

免费视频教程
本教程部分素材来源于网络,版权问题联系站长!
相关文章
  python timedelta函数是什么?
  python中如何使用items()函数实现字典转换为DataFrame
  python继承类中如何重写?
  python爬虫中如何处理429错误?
  python中子类与父类的关系
  python爬虫实战之智能翻页批量下载文件
相关视频章节
  安装Python
  python注释
  python编码规范
  《Python程序设计》课程导论
视频教程分类