日韩久久久精品,亚洲精品久久久久久久久久久,亚洲欧美一区二区三区国产精品 ,一区二区福利

淺談Python爬取網頁的編碼處理

系統 1888 0

背景

中秋的時候,一個朋友給我發了一封郵件,說他在爬鏈家的時候,發現網頁返回的代碼都是亂碼,讓我幫他參謀參謀(中秋加班,真是敬業= =!),其實這個問題我很早就遇到過,之前在爬小說的時候稍微看了一下,不過沒當回事,其實這個問題就是對編碼的理解不到位導致的。

問題

很普通的一個爬蟲代碼,代碼是這樣的:

            
# ecoding=utf-8
import re
import requests
import sys
reload(sys)
sys.setdefaultencoding('utf8')

url = 'http://jb51.net/ershoufang/rs%E6%8B%9B%E5%95%86%E6%9E%9C%E5%B2%AD/'
res = requests.get(url)
print res.text
          

目的其實很簡單,就是爬一下鏈家的內容,但是這樣執行之后,返回的結果,所有涉及到中文的內容,全部會變成亂碼,比如這樣

淺談Python爬取網頁的編碼處理_第1張圖片

            
          

這樣的數據拿來可以說毫無作用。

問題分析

這里的問題很明顯了,就是文字的編碼不正確,導致了亂碼。

查看網頁的編碼

從爬取的目標網頁的頭來看,網頁是用utf-8來編碼的。

            
          

所以,最終的編碼,我們肯定也要用utf-8來處理,也就是說,最終的文本處理,要用utf-8來解碼,也就是:decode('utf-8')

文本的編碼解碼

Python的編碼解碼的過程是這樣的,源文件 ===》 encode(編碼方式) ===》decode(解碼方式),在很大的程度上,不推薦使用

            
import sys
reload(sys)
sys.setdefaultencoding('utf8')
          

這種方式來硬處理文字編碼。不過在某些時候不影響的情況下,偷偷懶也不是什么大問題,不過比較建議的就是獲取源文件之后,使用encode和decode的方式來處理文本。

回到問題

現在問題最大的是源文件的編碼方式,我們正常使用requests的時候,它會自動猜源文件的編碼方式,然后轉碼成Unicode的編碼,但是,畢竟是程序,是有可能猜錯的,所以如果猜錯了,我們就需要手工來指定編碼方式。官方文檔的描述如下:

When you make a request, Requests makes educated guesses about the encoding of the response based on the HTTP headers. The text encoding guessed by Requests is used when you access r.text. You can find out what encoding Requests is using, and change it, using the r.encoding property.

所以我們需要查看requests返回的編碼方式到底是什么?

            
# ecoding=utf-8
import re
import requests
from bs4 import BeautifulSoup
import sys
reload(sys)
sys.setdefaultencoding('utf8')

url = 'http://jb51.net/ershoufang/rs%E6%8B%9B%E5%95%86%E6%9E%9C%E5%B2%AD/'

res = requests.get(url)
print res.encoding
          

打印的結果如下:

ISO-8859-1

也就是說,源文件使用的是ISO-8859-1來編碼。百度一下ISO-8859-1,結果如下:

ISO8859-1,通常叫做Latin-1。Latin-1包括了書寫所有西方歐洲語言不可缺少的附加字符。

問題解決

發現了這個東東,問題就很好解決了,只要指定一下編碼,就能正確的打出中文了。代碼如下:

            
# ecoding=utf-8
import requests
import sys
reload(sys)
sys.setdefaultencoding('utf8')

url = 'http://jb51.net/ershoufang/rs%E6%8B%9B%E5%95%86%E6%9E%9C%E5%B2%AD/'

res = requests.get(url)
res.encoding = ('utf8')

print res.text
          

打印的結果就很明顯,中文都正確的顯示出來了。

淺談Python爬取網頁的編碼處理_第2張圖片

另一種方式是在源文件上做解碼和編碼,代碼如下:

            
# ecoding=utf-8
import requests
import sys
reload(sys)
sys.setdefaultencoding('utf8')

url = 'http://jb51.net/ershoufang/rs%E6%8B%9B%E5%95%86%E6%9E%9C%E5%B2%AD/'

res = requests.get(url)
# res.encoding = ('utf8')

print res.text.encode('ISO-8859-1').decode('utf-8')
          

另:ISO-8859-1也叫做latin1,使用latin1做解碼結果也是正常的。

關于字符的編碼,很多東西可以說,想了解的朋友可以參考以下大神的資料。

?《The Absolute Minimum Every Software Developer Absolutely, Positively Must Know About Unicode and Character Sets (No Excuses!)》

以上這篇淺談Python爬取網頁的編碼處理就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 小金县| 荆州市| 连平县| 惠来县| 西宁市| 江口县| 洞口县| 北安市| 视频| 施甸县| 蕲春县| 丰镇市| 巩留县| 嘉鱼县| 甘洛县| 伊春市| 利辛县| 措美县| 内丘县| 洛宁县| 青河县| 红桥区| 尤溪县| 噶尔县| 安多县| 清徐县| 临城县| 莆田市| 建瓯市| 武陟县| 闵行区| 齐齐哈尔市| 特克斯县| 桑日县| 马山县| 沁水县| 堆龙德庆县| 同心县| 修文县| 江山市| 咸阳市|