爬蟲的主要目的是收集網際網路上公開的一些特定資料。利用這些資料我們可以能進行分析一些趨勢對比,或者訓練模型做深度學習等等。本期我們就將介紹一個專門用於網路抓取的 node.js
包—— node-crawler
,並且我們將用它完成一個簡單的爬蟲案例來爬取網頁上圖片並下載到本地。
node-crawler
是一個輕量級的 爬蟲工具,兼顧了高效與便利性,支援分散式爬蟲系統,支援寫死,支援http前級代理。而且,它完全是由 nodejs
寫成,天生支援非阻塞非同步IO,為爬蟲的流水線作業機制提供了極大便利。同時支援對 DOM
的快速選擇(可以使用 jQuery
語法),對於抓取網頁的特定部分的任務可以說是殺手級功能,無需再手寫正規表示式,提高爬蟲開發效率。
我們先新建一個專案,在裡面建立index.js作為入口檔案。
然後進行爬蟲庫 node-crawler
的安裝。
# PNPM pnpm add crawler # NPM npm i -S crawler # Yarn yarn add crawler
然後用過 require
引入進去。
// index.js const Crawler = require("crawler");
// index.js let crawler = new Crawler({ timeout:10000, jQuery:true, }) function getImages(uri) { crawler.queue({ uri, callback: (err, res, done) => { if (err) throw err; } }) }
從現在我們將開始寫一個拿到html頁面的圖片的方法,crawler
範例化後,在其佇列中主要是為了寫入連結和回撥方法。在每個請求處理完畢後將調這個回撥函數。
這裡還要說明一下, Crawler
使用了 request
庫,所以 Crawler
可供設定的參數列是 request
庫的引數的超集,即 request
庫中所有的設定在 Crawler
中均適用。
剛才或許你也看到了 jQuery
這個引數,你猜的沒錯,它可以使用 jQuery
的語法去捕獲 DOM
元素的。
// index.js let data = [] function getImages(uri) { crawler.queue({ uri, callback: (err, res, done) => { if (err) throw err; let $ = res.$; try { let $imgs = $("img"); Object.keys($imgs).forEach(index => { let img = $imgs[index]; const { type, name, attribs = {} } = img; let src = attribs.src || ""; if (type === "tag" && src && !data.includes(src)) { let fileSrc = src.startsWith('http') ? src : `https:${src}` let fileName = src.split("/")[src.split("/").length-1] downloadFile(fileSrc, fileName) // 下載圖片的方法 data.push(src) } }); } catch (e) { console.error(e); done() } done(); } }) }
可以看到剛才通過 $
來完成對請求中 img
標籤的捕獲。然後我們下面的邏輯去處理補全圖片的連結和剝離出名字為了後面可以儲存取名用。這裡還定義了一個陣列,它的目的是儲存已經捕獲到的圖片地址,如果下次捕獲發現同一個圖片地址,那麼就不再重複處理下載了。
以下是掘金首頁html用 $("img")
捕獲到的資訊列印:
下載圖片
下載之前我們還要安裝一個 nodejs
包—— axios
,是的你沒看錯,axios
不僅提供給前端,它也可以給後端去使用。但是因為下載圖片要把它處理成資料流,所以把 responseType
設定成 stream
。然後才可以用 pipe
方法儲存資料流檔案。
const { default: axios } = require("axios"); const fs = require('fs'); async function downloadFile(uri, name) { let dir = "./imgs" if (!fs.existsSync(dir)) { await fs.mkdirSync(dir) } let filePath = `${dir}/${name}` let res = await axios({ url: uri, responseType: 'stream' }) let ws = fs.createWriteStream(filePath) res.data.pipe(ws) res.data.on("close",()=>{ ws.close(); }) }
因為可能圖片很多,所以要統一放在一個資料夾下,就要判斷有沒有這個資料夾如果沒有就建立一個。然後通過 createWriteStream
方法來把獲取到的資料流以檔案的形式儲存到資料夾裡面。
然後我們可以嘗試一下,比如我們捕獲用一下掘金首頁html下的圖片:
// index.js getImages("https://juejin.cn/")
執行後發現就可以發現已經捕獲到靜態html裡面的所有圖片了。
node index.js
結語
到了最後,你也可以看到,此程式碼可能不適用於SPA(單頁面應用)。由於單頁應用程式中只有一個 HTML 檔案,並且網頁上的所有內容都是動態呈現的,但是萬變不離其宗,不管怎樣,你可以直接處理其資料請求,來收集到想要的資訊也未嘗不可。
還有一點要說的是,很多小夥伴處理下載圖片的請求用到了 request.js
,當然這樣可以的,甚至程式碼量更少,但是,我想說的是這個庫在2020年的時候就已經被棄用了,最好換一個一直在更新維護的庫比較好。
更多node相關知識,請存取:!
以上就是詳解如何使用Node.js開發一個簡單圖片爬取功能的詳細內容,更多請關注TW511.COM其它相關文章!