阿里云优惠活动,点击链接进行购买: 一年仅需96.9元即可以购买服务器~
腾讯云优惠活动, 点击链接进行购买一年仅需99元
腾讯云限时开团活动, 点击链接进行购买一年仅需95元
前端时间再回顾了一下 node.js,于是顺势做了一个爬虫来加深自己对 node 的理解。 主要用的到是 request,cheerio,async 三个模块 request 用于请求地址和快速下载图片流。 https://github.com/request/request cheerio 为服务器特别定制的,快速、灵活、实施的 jQuery 核心实现. 便于解析 html 代码。 https://www.npmjs.com/package/cheerio async 异步调用,防止堵塞。 http://caolan.github.io/async/
##核心思路
function requestall(url) {
request(
{
uri: url,
headers: setting.header,
},
function(error, response, body) {
if (error) {
console.log(error);
} else {
console.log(response.statusCode);
if (!error && response.statusCode == 200) {
var $ = cheerio.load(body);
var photos = [];
$("img").each(function() {
// 判断地址是否存在
if ($(this).attr("src")) {
var src = $(this).attr("src");
var end = src.substr(-4, 4).toLowerCase();
if (end == ".jpg" || end == ".png" || end == ".jpeg") {
if (IsURL(src)) {
photos.push(src);
}
}
}
});
downloadImg(photos, dir, setting.download_v);
// 递归爬虫
$("a").each(function() {
var murl = $(this).attr("href");
if (IsURL(murl)) {
setTimeout(function() {
fetchre(murl);
}, timeout);
timeout += setting.ajax_timeout;
} else {
setTimeout(function() {
fetchre("http://www.ivsky.com/" + murl);
}, timeout);
timeout += setting.ajax_timeout;
}
});
}
}
}
);
}
##防坑 1.在 request 通过图片地址下载时,绑定 error 事件防止爬虫异常的中断。 2.通过 async 的 mapLimit 限制并发。 3.加入请求报头,防止 ip 被屏蔽。 4.获取一些图片和超链接地址,可能是相对路径(待考虑解决是否有通过方法)。
function downloadImg(photos, dir, asyncNum) {
console.log("即将异步并发下载图片,当前并发数为:" + asyncNum);
async.mapLimit(
photos,
asyncNum,
function(photo, callback) {
var filename = new Date().getTime() + photo.substr(-4, 4);
if (filename) {
console.log("正在下载" + photo);
// 默认
// fs.createWriteStream(dir + "/" + filename)
// 防止pipe错误
request(photo)
.on("error", function(err) {
console.log(err);
})
.pipe(fs.createWriteStream(dir + "/" + filename));
console.log("下载完成");
callback(null, filename);
}
},
function(err, result) {
if (err) {
console.log(err);
} else {
console.log(" all right ! ");
console.log(result);
}
}
);
}
测试:
可以感觉到速度还是比较快的。
完整地址。https://github.com/hua1995116/node-crawler/