日韩久久久精品,亚洲精品久久久久久久久久久,亚洲欧美一区二区三区国产精品 ,一区二区福利

python爬蟲,處理POST請求

系統 2117 0

我們在python爬蟲寫腳本時,往往會遇到些問題,小編前幾天也遇到了個小問題。在這里想跟大家分享下,以免大家走更多的彎路
列如我要去有道翻譯,去爬取我們自己所翻譯的東西。

            
              import urllib.request
import urllib.parse

url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.162 Safari/537.36"}
formdata={
"i":" 加油",
"from":" AUTO",
"to": "AUTO",
"smartresult":"dict",
"client": "fanyideskweb",
"salt":" 15687710834733",
"sign": "d0b955f562cc4dfa3d33448f438b09b1",
"ts": "1568771083473",
"bv": "53850875da92527c18a78e804f4c65b4",
"doctype":"json",
"version":" 2.1",
"keyfrom": "fanyi.web",
"action":" FY_BY_CLICKBUTTION",
"typoResult": "true"}
data=bytes(urllib.parse.urlencode(formdata).encode('utf-8'))
request=urllib.request.Request(url,data=data,headers=headers)
response=urllib.request.urlopen(request)
print(response.read().decode('utf-8'))


            
          

腳本其實大家都會,但是隨著腳本和反爬蟲的機制也在更新。
問題1,大家寫完腳本會出現 {"errorCode":50} 這樣的錯誤。原因是我們給的 Request URL: http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule
只需要將改成 Request URL: http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule 即可解決
問題2,有的同學看質料上寫,會出現以下類似問題。
python爬蟲,處理POST請求_第1張圖片
其實,你寫的代碼根本就沒有這么多,但它給我報錯以下多少多少行出錯。這個問題大多數都是那個地方少標識符
還是以上題為列

            
              headers={"User-Agent:Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.162 Safari/537.36"}

            
          

改成

            
              headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.162 Safari/537.36"}

            
          

如果你用Chrome瀏覽器,點擊右鍵“檢查", 再點擊"network", 你就會發現真正處理翻譯并返回翻譯結果的url是http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule。你還會了解發送請求的方式是POST,返回的相應數據是JSON格式。如果請求方式是POST,我們一定還要了解POST什么數據,服務器才會返回正確的響應(Response)。
如果你繼續下拉Headers頁面,你就會發現需要POST的數據Form Data里不僅包含了我們需要翻譯的詞(i), 還包括其它加密用的salt和簽名字符串sign。我們在請求里必需把這些data加進去,有道才會返回翻譯結果。這就是明顯的反爬機制啊。當然高人無處不在,弄清了salt和sign的生成原理,就可以輕易破解有道的反爬機制了。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 黄浦区| 石狮市| 凌海市| 利津县| 油尖旺区| 施秉县| 泸西县| 河北省| 双辽市| 措美县| 郸城县| 沂源县| 乐亭县| 永和县| 元谋县| 孙吴县| 白银市| 海晏县| 樟树市| 山西省| 北京市| 洪湖市| 武邑县| 壶关县| 威信县| 钟山县| 隆化县| 长泰县| 丹巴县| 轮台县| 南通市| 莒南县| 通海县| 靖远县| 黎平县| 龙陵县| 崇明县| 沽源县| 襄汾县| 城口县| 滕州市|