技术文章 > Python技术 > Python基础 > 正文

selenium如何解决python爬虫乱码问题?

小妮浅浅


平时没事的时候,很多人喜欢把自己的生活或者工作心得分享到博客上,也是互相交流的一种方法。不过想大量的看一些博客,在获取的时候就容易出现乱码的问题,相信这点很多小伙伴们都遇到了。今天小编就带来selenium的方法帮助大家解决python爬虫乱码问题。


在用requests库对博客进行爬取时,发现乱码报错,如下图所示:

 

网上查找了一些方法,以为是遇到了网站加密处理。后来发现 通过F12还 是能获取网页的元素,那么有什么办法能规避乱码问题呢?答案是:用selenium.

 

效果如下

 

代码

# coding=utf-8
# @Auther : "鹏哥贼优秀"
# @Date : 2019/10/16
# @Software : PyCharm
 
from selenium import webdriver
 
url = 'https://blog.csdn.net/yuzipeng'
driver = webdriver.Chrome("F:\\Python成长之路\\chromedriver.exe")
driver.get(url)
urls = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]')
blogurl = ['https://blog.csdn.net/yuzipeng/article/details/' + url.get_attribute('data-articleid') for url in urls]
titles = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]/h4/a')
blogtitle = [title.text for title in titles]
myblog = {k:v for k,v in zip(blogtitle,blogurl)}
for k,v in myblog.items():
    print(k,v)
driver.close()


在python爬虫中有不少的方法可以解决乱码问题,小伙伴们跟selenium比比,到底哪个好用呢?更多Python学习推荐:
PyThon学习网教学中心

免费视频教程
本文原创发布python学习网,转载请注明出处,感谢您的尊重!
相关文章
 PhantomJS如何在python爬虫中加载页面?
 如何写简单的python爬虫代码?
 python爬虫urllib中request模块用法
 python爬虫案例:从网页上获取源码
 如何用python爬虫批量下载视频?
相关视频章节
 网络爬虫
 云端部署Web应用程序视频
 Web应用框架Flask和文件模板
 Web应用程序开发概述
 继承和多态
作者信息

小妮浅浅

认证0级讲师

最近文章
推荐视频
视频教程分类