一、什么是 urllib 庫?
Python3 中將 Python2 中的 urllib 和 urllib2 兩個庫整合為一個 urllib 庫,所以現(xiàn)在一般說的都是 Python3 中的 urllib 庫,那么 urllib 庫是什么呢?如何使用 urllib 庫?urllib 庫的常用函數(shù)有哪些呢?
urllib主要分為以下四個功能模塊:
- urllib.request(請求模塊)
- urllib.parse(解析模塊)
- urllib.error(異常處理模塊)
- urllib.robotparser(robots.txt 文件解析模塊)
urllib 是 Python 內(nèi)置的 HTTP 請求庫,無需安裝,可直接使用,也是爬蟲開發(fā)人員常用的一個庫,今天小編就給大家總結一下 urllib 庫一些常用函數(shù)的基本用法。
二、urllib用法講解
1、urllib.request.urlopen() 函數(shù)
創(chuàng)建一個標識遠程 url 的文件對象,然后像本地文件一樣操作這個類文件對象來獲取遠程數(shù)據(jù)。語法如下:
urllib.request.urlopen(url,data = None,[timeout]*,cafile = None,capath = None,cadefault = False,context = None)
- url:請求的 url;
- data:請求的 data,如果設置了這個值,那么將變成 post 請求;
- timeout:設置網(wǎng)站的訪問超時時間句柄對象;
- cafile和capath:用于 HTTPS 請求中,設置 CA 證書及其路徑。
示例
from urllib import request
response = request.urlopen('http://www.baidu.com') #get方式請求
print(response.read().decode('utf-8') #獲取響應的內(nèi)容并進行解碼操作
urlopen() 返回對象提供的方法有:
- read()、readline()、readlines()、fileno()、close():對 HTTPR esponse 類型數(shù)據(jù)進行操作;
- info():返回 HTTPMessage 對象,表示遠程服務器 返回的頭信息 ;
- getcode():返回 HTTP 狀態(tài)碼 geturl():返回請求的 url;
- getheaders():響應的頭部信息 ;
- getheader('Server'):返回響應頭指定參數(shù) Server 的值;
- status:返回狀態(tài)碼 ;
- reason:返回狀態(tài)的詳細信息 。
2、urllib.request.urlretrieve() 函數(shù)
這個函數(shù)可以方便的將網(wǎng)頁上的一個文件保存到本地。語法如下:
urllib.request.urlretrieve(url, filename=None, reporthook=None, data=None)
- url:遠程數(shù)據(jù)的地址 ;
- filename:保存文件的路徑,如果為空,則下載為臨時文件 ;
- reporthook:鉤子函數(shù) 連接服務器成功以及每個數(shù)據(jù)塊下載完成時各調(diào)用一次,包含 3 個參數(shù),依次為已經(jīng)下載的數(shù)據(jù)塊,數(shù)據(jù)塊的大小,總文件的大小,可用于顯示下載進度 ;
- data:post 到服務器的數(shù)據(jù)。
示例
from urllib import request
request.urlretrieve('http://www.baidu.com/','baidu.html') #將百度的首頁信息下載到本地
3、urllib.parse.urlencode() 函數(shù)
urlencode 可以把字典數(shù)據(jù)轉換為 URL 編碼的數(shù)據(jù)。語法如下:
urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None, quote_via=quote_plus)
- query:查詢參數(shù);
- doseq:序列元素是否單獨轉換;
- safe:安全默認值;
- encoding:編碼;
- errors:錯誤默認值;
- quote_via:查詢參數(shù)的成份是str時,safe, encoding, errors 傳遞給的指定函數(shù),默認為 quote_plus(),加強版 quote()。
示例
from urllib import parse
data = {'姓名':'W3CSchool','問好':'Hello W3CSchool','年齡':100}
qs = parse.urlencode(data)
print(qs)
# %E5%A7%93%E5%90%8D=W3CSchool&%E9%97%AE%E5%A5%BD=Hello+W3CSchool&%E5%B9%B4%E9%BE%84=100
4、urllib.parse.parse_qs() 函數(shù)
可以將經(jīng)過編碼后的 url 參數(shù)進行解碼。語法如下:
urllib.parse.parse_qs(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace')
- keep_blank_values:當 value 為空時,表示是否需要顯示 key,默認為 False
- strict_parsing:指示如何處理解析錯誤的標志。如果為 False(默認值),則會自動忽略錯誤。否則錯誤會引發(fā) ValueError 異常。
示例
from urllib import parse
data = {'姓名':'W3CSchool','問好':'hello W3CSchool','年齡':100}
qs = parse.urlencode(data)
print(qs)
#%E5%A7%93%E5%90%8D=W3CSchool&%E9%97%AE%E5%A5%BD=hello+W3CSchool&%E5%B9%B4%E9%BE%84=100
print(parse.parse_qs(qs))
#{'姓名': ['W3CSchool'], '問好': ['hello W3CSchool'], '年齡': ['100']}
5、urllib.parse.parse_qsl() 函數(shù)
基本用法與 parse_qs() 函數(shù)一致,只是 urllib.parse.parse_qs() 函數(shù)返回字典,urllib.parse.parse_qsl() 函數(shù)放回列表。語法如下:
urllib.parse.parse_qsl(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace')
示例
from urllib import parse
data = {'姓名':'W3CSchool','問好':'hello W3CSchool','年齡':100}
qs = parse.urlencode(data)
print(parse.parse_qs(qs))
#[('姓名', 'W3CSchool'), ('問好', 'hello W3CSchool'), ('年齡', '100')]
6、urllib.parse.urlparse() 和 urllib.parse.urlsplit() 函數(shù)
有時候拿到一個 url,想要對這個 url 中的各個組成部分進行分割,那么這時候就可以使用 urlparse 或者是 urlsplit 來進行分割。 各自語法如下:
urllib.parse.urlparse(urlstring, scheme=”, allow_fragments=True)
urllib.parse.urlsplit(urlstring, scheme=”, allow_fragments=True)
urlparse 和 urlsplit 基本上是一模一樣的。
唯一不一樣的地方是: urlparse 里有 params 屬性,而 urlsplit 沒有這個 params 屬性。
示例
from urllib import parse
url = 'http://www.baidu.com/index.html;user?id=S#comment'
result = parse.urlparse(url)
# result = parse.urlsplit(url)
print(result)
print(result.scheme)
print(result.netloc)
print(result.path)
print(result.params) # urlparse 里面有 params 屬性,而 urlsplit 沒有這個屬性。
7、urllib.error 模塊
urllib 的 error 模塊定義了由 urllib.request 請求產(chǎn)生的異常。如果請求失敗,urllib.request 便會拋出 error 模塊的異常。
- URLError
示例
from urllib import request, error
try:
resp = request.urlopen('https://w3cschool.c/index.html')
except error.URLError as e:
print(e.reason)
# [Errno 11001] getaddrinfo failed
- HTTPError
它是 URLError 的子類,專門用來處理 HTTP 請求錯誤,具備以下三個屬性:
- code:返回HTTP狀態(tài)碼
- reason:異常原因
- headers:請求頭
示例
from urllib import request
response = request.urlopen('http://www.baidu.com') #get方式請求
print(response.read().decode('utf-8') #獲取響應的內(nèi)容并進行解碼操作
#404
當然,大多時候都是將 URLError 和 HTTPError 結合才進行異常處理,首先通過 HTTPError 來捕獲 url 的錯誤狀態(tài)碼、異常原因、請求頭等信息,如果不是該類型錯誤,再捕獲 URLError,輸出錯誤原因,最后是 else 來處理正常的邏輯。
示例
from urllib.request import Request, urlopen
from urllib.error import URLError, HTTPError
resp = Request('http://www.baidu.cnc/')
try:
response = urlopen(resp)
except HTTPError as e:
print('(www.baidu.cnc)服務器無法完成請求。')
print('錯誤代碼: ', e.code)
except URLError as e:
print('我們無法連接到服務器。')
print('原因: ', e.reason) else:
print("鏈接成功!")
print(response.read().decode("utf-8"))
以上就是 urllib 庫中常用的函數(shù),希望屏幕前的你多注重聯(lián)系,理論與實際相結合才是最好的學習方式!推薦閱讀:Python 靜態(tài)爬蟲、Python Scrapy網(wǎng)絡爬蟲。
最后,我們來總結一下常見的各種狀態(tài)碼含義:
- 200:請求正常,服務器正常的返回數(shù)據(jù);
- 301:永久重定向。比如在訪問 www.jingdong.com 的時候會重定向到 www.jd.com;
- 302:臨時重定向。比如在訪問一個需要登錄的頁面的時候,而此時沒有登錄,那么就會重定向到登錄頁面;
- 400:請求的url在服務器上找不到。換句話說就是請求url錯誤;
- 403:服務器拒絕訪問,權限不夠;
- 500:服務器內(nèi)部錯誤。可能是服務器出現(xiàn) bug 了。