大家好,我是不溫卜火,是一名計算機學院巨量資料專業大三的學生,暱稱來源於成語—
不溫不火
,本意是希望自己性情溫和
。作為一名網際網路行業的小白,博主寫部落格一方面是為了記錄自己的學習過程,另一方面是總結自己所犯的錯誤希望能夠幫助到很多和自己一樣處於起步階段的萌新。但由於水平有限,部落格中難免會有一些錯誤出現,有紕漏之處懇請各位大佬不吝賜教!暫時只有csdn這一個平臺,部落格主頁:https://buwenbuhuo.blog.csdn.net/
本片博文為大家帶來的想要快速爬取整站圖片?速進(附完整程式碼)
。
完整程式碼在Github,如有需要可自行下載。
GIthub地址:https://github.com/459804692/scrapy/tree/master/scrapy_demo
快速爬取整個網站的圖片當然是可行的!!!但是 我們還是先從一個切入點切入,此處的切入點,博主選擇的是寶馬五系車型為切入點,同理,爬取妹子圖也是如此。
汽車直接官網:https://www.autohome.com.cn/
寶馬五系網頁地址:https://www.autohome.com.cn/65/
圖片地址:https://car.autohome.com.cn/pic/series/65.html
根據上圖,可以發現我們所要爬取的部分都在<div class="uibox">xxx</div>
這個父標籤內。
好了,既然已經知道我們的切入點在哪了,那麼我們下面就要對此部分進行解析了
上一張圖片可能不是太直觀,那麼我們可以通過檢視原始碼,來進行解析:
根據上圖我們可以知道第一個標記處為我們所要爬取部分的title
。
而我們所要爬取的圖片則為標記的第二部分<img src>xxxx</img>
好了,根據上圖我們可以看到我們準備爬取的內容都在<div class="uibox"></div>
中。這時,我們應該想到的是先把這部分全部獲取下來,然後通過迴圈遍歷,把我們所需要的部分分別提取出來。
首先我們先來實現獲取所有「uibox」
中的內容,通過xpath進行解析,解析式如下:
uiboxs = response.xpath("//div[@class='uibox']")[1:] # 使用切片操作
下圖為所獲取到的所有結果(通過scrapy shell 解析所得到的結果)
至於為什麼會用到接片操作,我們可以看下圖
由上圖我們可以看到爬取圖片的時候全景看車這部分是不需要爬取的。由於其不是我們所需要的,那麼我們就需要把它排除掉,而排除操作我選擇的是切片操作。
切片操作完成後,我們通過迴圈遍歷可以分別得到我們所需要的圖片名稱及圖片連結。
怎樣得到的?我們先看下HTML原始碼
結構:
根據上面兩張圖片,我們可以分別進行xpath解析。解析式如下:
for uibox in uiboxs:
category = uibox.xpath(".//div[@class = 'uibox-title']/a/text()").get()
print(category)
urls = uibox.xpath(".//ul/li/a/img/@src").getall()
print(urls)
解析完成後,我們通過輸出列印看下效果:
根據上圖我們可以看到圖片的網址是不完全的,這時候我們可以通過新增https:
使其形式成為url = "https:"+url
這種形式。最終可以的到下圖的效果:
for url in urls:
url = "https:"+url
print(url)
上述程式碼用的是最原始的遍歷方法讓每一個圖片地址輸出成我們想要的,那麼還有其他方法沒有?
答案是肯定! 下面博主給的程式碼即為優化方法:
優化1:自動拼接成完整的URL
for url in urls:
url = response.urljoin(url)
print(url)
優化2: 使用map()
在使用map()優化前,我們需要先設定好item.py
class BmwItem(scrapy.Item):
category = scrapy.Field()
urls= scrapy.Field()
urls = list(map(lambda url:response.urljoin(url),urls))
item = BmwItem(category = category , urls = urls)
yield item
上述兩種優化方法得到的結果和第一個是一樣的。效果圖如下:
在pipelines中處理
)在使用pipelines
的時候,我們需要先從設定裡開啟選項,把預設的註釋去掉
去掉註釋以後,我們就把圖片儲存到本地這一想法從理論成為現實:
怎樣實現?
在此博主總共分成兩步進行實現,首先是先判斷是否有目錄,如果有的話就直接進行下一步,如果沒有的話,則會進行自動建立,原始碼部分如下:
def __init__(self):
# 獲取並建立當前目錄,沒有自行建立
self.path = os.path.join(os.path.dirname(os.path.dirname(__file__)), 'images')
if not os.path.exists(self.path):
os.mkdir(self.path)
else:
print('images資料夾存在')
資料夾建立完成後,就需要對圖片進行儲存了。原始碼如下:
def process_item(self, item, spider):
category = item['category']
urls = item['urls']
category_path = os.path.join(self.path,category)
if not os.path.exists(category_path):
os.mkdir(category_path)
for url in urls:
image_name = url.split('_')[-1]
request.urlretrieve(url,os.path.join(category_path,image_name))
return item
對上述原始碼,博主只對image_name = url.split('_')[-1]
這一句做詳細解釋。至於為什麼要這樣操作,看下圖:
根據上圖,我們不難看出所有圖片地址的_之前基本上都是一樣的,那麼我們就以_為分割線 ,通過切片的方式選取最後一部分當作我們所要儲存的圖片的名稱!
下面檢視一下執行的結果:
通過圖片我們可以看到我們已經成功的把理想程式設計了現實。
雖然通過以上的步驟我們已經完成了圖片的爬取,但是我們要知道我們用的是不同的迴圈遍歷的方法一張一張的下載。初次之外,上述的方法也沒有用到非同步下載,效率較為低下。
在這個時候我們就可以使用scrapy框架自帶的item pipelines了。
為什麼要選擇使用scrapy內建的下載檔案的方法:
下載檔案的Files Pipeline與下載圖片的Images Pipeline:
當使用Files Pipeline下載檔案的時候,按照以下步驟來完成:
當使用Images Pipeline下載檔案的時候,按照以下步驟來完成:
class BmwItem(scrapy.Item):
category = scrapy.Field()
image_urls= scrapy.Field()
images = scrapy.Field()
# 修改此部分
item = BmwItem(category = category , image_urls = urls)
ITEM_PIPELINES = {
# 'bmw1.pipelines.Bmw1Pipeline': 300,
# 系統自帶的Pipeline 可以實現非同步
'scrapy.pipelines.images.ImagesPipeline': 1
}
# 圖片下載的路徑,供image pipelines使用
IMAGES_STORE = os.path.join(os.path.dirname(os.path.dirname(__file__)), 'images')
好了,修改完成,下面我們來看下效果
我們可以看到現在下載速度很快,只用了兩秒就完成了整個寶馬五系車型圖片的下載,但是這樣還是有弊端的,因為這樣我們下載所有圖片都在一個預設的full資料夾下,而沒有任何分類。
這時候可能會有讀者問:這能按分類進行排序麼!答案是能的。看博主下面操作:
為了實現上述讀者所說的需求,其實很簡單,只需要我們再次在pipelines.py中重寫一個類即可
# 重寫一個新類,使其能夠分類下載
class BMWImagesPipeline(ImagesPipeline):
def get_media_requests(self, item, info):
# 這個方法是在傳送下載請求之前呼叫
# 其實這個方法本身就是去傳送下載請求的
request_objs = super(BMWImagesPipeline, self).get_media_requests(item,info)
for request_obj in request_objs:
request_obj.item = item
return request_objs
def file_path(self, request, response=None, info=None):
# 這個方法是在圖片將要被儲存的時候呼叫,來獲取這個圖片儲存的路徑
path = super(BMWImagesPipeline, self).file_path(request,response,info)
category = request.item.get('category')
images_store = settings.IMAGES_STORE
category_path = os.path.join(images_store,category)
if not os.path.exists(category_path):
os.mkdir(category_path)
images_name = path.replace("full/","")
images_path = os.path.join(category_path,images_name)
return images_path
ITEM_PIPELINES = {
# 'bmw1.pipelines.Bmw1Pipeline': 300,
# 系統自帶的Pipeline 可以實現非同步
# 'scrapy.pipelines.images.ImagesPipeline': 1
# 使用自己建立的類物件
'bmw1.pipelines.BMWImagesPipeline': 1
}
你以為到這裡就大功告成了嘛!如果真的這樣認為那你就大錯特錯了,因為現在儲存的還只是小圖,我們需要儲存的是大圖。下面我們先來看看大圖與小圖的區別:
大圖網址:https://car3.autoimg.cn/cardfs/product/g26/M08/5A/55/autohomecar__ChcCP12J_XGAXP0pAAtylyqMfeQ144.jpg
小圖網址:https://car3.autoimg.cn/cardfs/product/g26/M08/5A/55/240x180_0_q95_c42_autohomecar__ChcCP12J_XGAXP0pAAtylyqMfeQ144.jpg
根據上圖,我們可以發現,大圖只是比小圖少了240x180_0_q95_c42_
這一部分,既然得到了這樣一則比較有用的資訊,那麼我們就可以通過替換髮把原來的小圖網址轉換成大圖網址,說幹就幹,上才藝:
srcs = list(map(lambda x:response.urljoin(x.replace("240x180_0_q95_c42_","")),srcs))
此部分到這裡大體就完成了,剩下一點博主就直接把此部分的程式碼放上:
rules = (
Rule(LinkExtractor(allow=r"https://car.autohome.com.cn/pic/series/65.+"),callback="parse_page",follow=True),
)
def parse_page(self, response):
category = response.xpath("//div[@class='uibox']/div/text()").get()
srcs = response.xpath('//div[contains(@class,"uibox-con")]/ul/li//img/@src').getall()
srcs = list(map(lambda x:response.urljoin(x.replace("240x180_0_q95_c42_","")),srcs))
# 得到整個狀態列表
# urls = []
# for src in srcs:
# url = response.urljoin(src)
# urls.append(url)
# srcs = list(map(lambda x:response.urljoin(x),srcs))
yield BmwItem(category=category,image_urls = srcs)
class Bmw5Spider(CrawlSpider):
name = 'bmw5'
allowed_domains = ['car.autohome.com.cn']
start_urls = ['https://car.autohome.com.cn/pic/series/65.html']
rules = (
Rule(LinkExtractor(allow=r"https://car.autohome.com.cn/pic/series/65.+"),callback="parse_page",follow=True),
)
def parse_page(self, response):
category = response.xpath("//div[@class='uibox']/div/text()").get()
srcs = response.xpath('//div[contains(@class,"uibox-con")]/ul/li//img/@src').getall()
srcs = list(map(lambda x:response.urljoin(x.replace("240x180_0_q95_c42_","")),srcs))
# 得到整個狀態列表
# urls = []
# for src in srcs:
# url = response.urljoin(src)
# urls.append(url)
# srcs = list(map(lambda x:response.urljoin(x),srcs))
yield BmwItem(category=category,image_urls = srcs)
# 爬取縮圖用此部分
def parse(self, response):
# SelectorList -> list (可進行遍歷)
uiboxs = response.xpath("//div[@class='uibox']")[1:] # 使用切片操作
for uibox in uiboxs:
category = uibox.xpath(".//div[@class = 'uibox-title']/a/text()").get()
urls = uibox.xpath(".//ul/li/a/img/@src").getall()
# for url in urls:
# url = "https:"+url
# print(url)
# 優化1:自動拼接成完整的URL
# for url in urls:
# url = response.urljoin(url)
# print(url)
# 優化2: 使用map()
urls = list(map(lambda url:response.urljoin(url),urls))
item = BmwItem(category = category , image_urls = urls)
yield item
class BmwItem(scrapy.Item):
category = scrapy.Field()
image_urls= scrapy.Field()
images = scrapy.Field()
class BmwPipeline:
def __init__(self):
# 獲取並建立當前目錄,沒有自行建立
self.path = os.path.join(os.path.dirname(os.path.dirname(__file__)), 'images')
if not os.path.exists(self.path):
os.mkdir(self.path)
def process_item(self, item, spider):
category = item['category']
urls = item['urls']
category_path = os.path.join(self.path,category)
if not os.path.exists(category_path):
os.mkdir(category_path)
for url in urls:
image_name = url.split('_')[-1]
request.urlretrieve(url,os.path.join(category_path,image_name))
return item
# 重寫一個新類,使其能夠分類下載
class BMWImagesPipeline(ImagesPipeline):
def get_media_requests(self, item, info):
# 這個方法是在傳送下載請求之前呼叫
# 其實這個方法本身就是去傳送下載請求的
request_objs = super(BMWImagesPipeline, self).get_media_requests(item,info)
for request_obj in request_objs:
request_obj.item = item
return request_objs
def file_path(self, request, response=None, info=None):
# 這個方法是在圖片將要被儲存的時候呼叫,來獲取這個圖片儲存的路徑
path = super(BMWImagesPipeline, self).file_path(request,response,info)
category = request.item.get('category')
images_store = settings.IMAGES_STORE
category_path = os.path.join(images_store,category)
if not os.path.exists(category_path):
os.mkdir(category_path)
images_name = path.replace("full/","")
images_path = os.path.join(category_path,images_name)
return images_path
ROBOTSTXT_OBEY = False
DOWNLOAD_DELAY = 1
DEFAULT_REQUEST_HEADERS = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'en',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'
}
ITEM_PIPELINES = {
# 雖然能夠下載,但是不能實現非同步
# 'bmw.pipelines.BmwPipeline': 300,
# 系統自帶的Pipeline 可以實現非同步
# 'scrapy.pipelines.images.ImagesPipeline': 1
# 使用自己建立的類物件
'bmw.pipelines.BMWImagesPipeline' : 1
}
# 圖片下載的路徑,供image pipelines使用
IMAGES_STORE = os.path.join(os.path.dirname(os.path.dirname(__file__)), 'images')
美好的日子總是短暫的,雖然還想繼續與大家暢談,但是本篇博文到此已經結束了,如果還嫌不夠過癮,不用擔心,我們下篇見!
好書不厭讀百回,熟讀課思子自知。而我想要成為全場最靚的仔,就必須堅持通過學習來獲取更多知識,用知識改變命運,用部落格見證成長,用行動證明我在努力。
如果我的部落格對你有幫助、如果你喜歡我的部落格內容,請「點贊」 「評論」「收藏」
一鍵三連哦!聽說點讚的人運氣不會太差,每一天都會元氣滿滿呦!如果實在要白嫖的話,那祝你開心每一天,歡迎常來我部落格看看。
碼字不易,大家的支援就是我堅持下去的動力。點贊後不要忘了關注
我哦!