C++网络爬虫设计与分析
作者:网络转载 发布时间:[ 2015/8/7 11:15:12 ] 推荐标签:.NET 测试开发技术
功能介绍:
网络爬虫(Web crawler),是一种“自动化浏览网络”的程序,或者说是一种网络机器人。它们被广泛用于互联网搜索引擎或其他类似网站,以获取或更新这些网站的内容和检索方式。它们可以自动采集所有其能够访问到的页面内容,以便程序做下一步的处理。
设计思路:
1、下载html页面。
2、解析当前html页面的url和图片url,将他们分别放在hrefUrl队列和imgUrl数组中。
3、下载当前imgUrl下的所有图片,并将他们存放在所对应url的文件夹下。
4、用广度遍历的方法,遍历网站所有的url。
爬虫框架设计分析:
class Crawler
{
private:
string m_url; /// @brief 保存初始URL
queue<string> m_hrefUrl; /// @brief 保存所有未访问的href
hash_set<string> m_visitedUrl; /// @brief 保存所有已经访问过的url
hash_set<string> m_visitedImg; /// @brief 保存已经访问过的所有图片
public:
/// @brief 解析URL,获得主机名,资源名
/// @param[in] url 要解析的URL
/// @param[out] host 解析出来的host
/// @param[out] resource 解析出来的资源名
bool parseURL(const string& url, string& host, string& resource);
/// @brief 使用Get请求,获得请求页面
/// @param[in] url 请求的url
/// @param[out] response 服务端返回的请求页面内容
bool getHttpResponse(const string&url, string *&response);
/// @brief 解析取得当前页面的所有的href以及图片URL
/// @param[in] htmlResponse html页面的内容
/// @param[out] imgurls 存储所有图片的url地址
void htmlParse(string& htmlResponse, vector<string>& imgurls);
/// @brief 将url转化为文件名
/// @param[in] url 需要转化的url
string toFileName(const string& url);
/// @brief 将图片下载到img文件夹下
/// @param[in] imgurls 所有图片的url地址
/// @param[in] url 图片所对应的url地址
void downLoadImg(vector<string>& imgurls, const string& url);
/// @brief 下载一个url下的所有图片
/// @param[in] url 需要下载图片的url
void bfs(const string& url);
/// @brief 广度遍历下载所有url的图片
void start();
public:
/// @brief 构造函数
Crawler();
Crawler(const string &url);
~Crawler();
};
具体实现源码及源码使用方法请参考:https://github.com/yongssu/crawler
注:项目基本功能已经实现,但还存在一些小问题,如果大家感兴趣,可以自己尝试着修改一下,也可以自己根据这个思路自己设计一个爬虫。
相关推荐
更新发布
功能测试和接口测试的区别
2023/3/23 14:23:39如何写好测试用例文档
2023/3/22 16:17:39常用的选择回归测试的方式有哪些?
2022/6/14 16:14:27测试流程中需要重点把关几个过程?
2021/10/18 15:37:44性能测试的七种方法
2021/9/17 15:19:29全链路压测优化思路
2021/9/14 15:42:25性能测试流程浅谈
2021/5/28 17:25:47常见的APP性能测试指标
2021/5/8 17:01:11