189 8069 5689

python抓取网页乱码的解决方法

这篇文章将为大家详细讲解有关python抓取网页乱码的解决方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

成都创新互联公司主营武陵网站建设的网络公司,主营网站建设方案,APP应用开发,武陵h5小程序开发搭建,武陵网站营销推广欢迎武陵等地区企业咨询

在使用python爬取网页时,经常会遇到乱码问题,一旦遇到乱码问题,就很难得到有用的信息。本人遇到乱码问题,一般有以下几个方式:

1、查看网页源码中的head标签,找到编码方式,例如:

在上图中,可以看到charset='utf-8',说明这个网页很大可能是采用‘UTF-8’编码(是很大可能,但不是百分之百),因此可以试试这个编码方式:

result = response.content.decode('utf-8')

这种方式得到的内容基本上就不会乱码。

2、如果上述的方式没有任何作用,页面依然乱码;或者在head标签下并没有找到charset属性;或者我们要采集很多网页的信息,而且这些网页的编码方式不尽相同,我们不可能做到一个一个网页的去查看head标签,那么可以采用下面的方式解决乱码。

(1)python的chardet库

可以使用下面的方式解决乱码问题

result = chardet.detect(response.content)
print(result)
data = response.content.decode(chardet.detect(response.content)['encoding'])
{'confidence': 0.99, 'language': '', 'encoding': 'utf-8'}

从输出结果可以看出这是“猜测”编码,猜测的方式是先收集各种编码的特征字符,根据特征字符判断,就能有很大概率“猜对”。

这种方法的效率很低,如果采集的网页很大,可以只猜测其中一段的源码,即

result = chardet.detect(response.content[:1000])

(2)response的编码

也可以使用另一种方法,即response自有的encoding,apparent_encoding这两个变量。

response.encoding一般是从response.headers中content-type字段中的charset的值,其它情况我也不是很了解。

response.apparent_encoding 一般是采用上述的python的chardet库这种方法。

因此可以用下面的方式解决乱码问题

data = response.content.decode(response.apparent_encoding)

3、一般情况下,上述两个方法可以解决乱码问题。但是如果上述两个方式不能解决,那有可能是网页的压缩导致的。这种问题用下面的方法解决。

检查一下你写的头信息是不是包含了Accept-Encoding这个字段,如果有,请删除这个字段,乱码问题就会得到解决。

headers = {
    'Accept-Encoding': 'gzip, deflate, sdch',
    'Accept-Language': 'zh-CN,zh;q=0.8',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
    Chrome/49.0.2623.221 
    Safari/537.36 SE 2.X MetaSr 1.0',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'Connection': 'keep-alive',
}

关于python抓取网页乱码的解决方法就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


网页名称:python抓取网页乱码的解决方法
文章链接:http://cdxtjz.cn/article/pisgch.html

其他资讯