项目地址:https://github.com/hu17889/go_spider

go-spider文档

常见问题与功能说明

中文文档

简介

本项目基于golang开发,是一个开放的垂直领域的爬虫框架,框架中将各个功能模块区分开,方便使用者重新实现子模块,进而构建自己垂直方方向的爬虫。

本项目将爬虫的各个功能流程区分成Spider模块(主控),Downloader模块(下载器),PageProcesser模块(页面分析),Scheduler模块(任务队列),Pipeline模块(结果输出);

执行过程简述

  1. Spider模块从Scheduler模块中获取包含待抓取url的Request对象,启动一个协程,一个协程执行一次爬取过程,此处我们把协程也看成Spider,Spider把Request对象传入Downloader,Downloader下载该Request对象中url所对应的页面或者其他类型的数据,生成Page对象;
  2. Spider调用PageProcesser模块解析Page对象中的页面数据,并存入Page对象中的PageItems中(以Key-Value对的形式保存),同时存入解析结果中的待抓取链接,Spider会将待抓取链接存入Scheduler模块中的Request队列中;
  3. Spider调用Pipeline模块输出Page中的PageItems的结果;
  4. 执行步骤1,直至Scheduler中所有链接被处理完成,则Spider被挂起等待下一个待抓取链接或者终止。

image

执行过程相应的Spider核心代码,代码代表一次爬取过程:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
// core processer
func (this *Spider) pageProcess(req *request.Request) {
// Get Page
p := this.pDownloader.Download(req)
if p == nil {
return
}

// Parse Page
this.pPageProcesser.Process(p)
for _, req := range p.GetTargetRequests() {
this.addRequest(req)
}

// Output
if !p.GetSkip() {
for _, pip := range this.pPiplelines {
pip.Process(p.GetPageItems(), this)
}
}

this.sleep()
}

项目安装与示例执行

  • 安装本包和依赖包
    1
    2
    3
    4
    go get github.com/hu17889/go_spider/...
    go get github.com/PuerkitoBio/goquery
    go get github.com/bitly/go-simplejson
    go get golang.org/x/net/html/charset

示例执行:

  • 编译:go install github.com/hu17889/go_spider/example/github_repo_page_processor
  • 执行:./bin/github_repo_page_processor

展示一个简单爬虫示例

示例的功能是爬取https://github.com/hu17889?tab=repositories下面的项目以及项目详情页的相关信息,并将内容输出到标准输出。

一般在自己的爬虫main包中需要实现爬虫创建,初始化,以及PageProcesser模块的继承实现。可以实现自己的子模块或者使用项目中已经存在的子模块,通过Spider对象中相应的Set或者Add函数将模块引入爬虫。本项目支持链式调用

1
2
3
4
5
spider.NewSpider(NewMyPageProcesser(), "TaskName").                // 创建PageProcesser和Spider,设置任务名称
AddUrl("https://github.com/hu17889?tab=repositories", "html"). // 加入初始爬取链接,需要设置爬取结果类型,方便找到相应的解析器
AddPipeline(pipeline.NewPipelineConsole()). // 引入PipelineConsole输入结果到标准输出
SetThreadnum(3). // 设置爬取参数:并发个数
Run() // 开始执行

完整代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
//
package main

/*
Packages must be imported:
"core/common/page"
"core/spider"
Pckages may be imported:
"core/pipeline": scawler result persistent;
"github.com/PuerkitoBio/goquery": html dom parser.
*/
import (
"github.com/PuerkitoBio/goquery"
"github.com/hu17889/go_spider/core/common/page"
"github.com/hu17889/go_spider/core/pipeline"
"github.com/hu17889/go_spider/core/spider"
"strings"
)

type MyPageProcesser struct {
}

func NewMyPageProcesser() *MyPageProcesser {
return &MyPageProcesser{}
}

// Parse html dom here and record the parse result that we want to Page.
// Package goquery (http://godoc.org/github.com/PuerkitoBio/goquery) is used to parse html.
func (this *MyPageProcesser) Process(p *page.Page) {
query := p.GetHtmlParser()
var urls []string
query.Find("h3[class='repo-list-name'] a").Each(func(i int, s *goquery.Selection) {
href, _ := s.Attr("href")
urls = append(urls, "http://github.com/"+href)
})
// these urls will be saved and crawed by other coroutines.
p.AddTargetRequests(urls, "html")

name := query.Find(".entry-title .author").Text()
name = strings.Trim(name, " \t\n")
repository := query.Find(".entry-title .js-current-repository").Text()
repository = strings.Trim(repository, " \t\n")
//readme, _ := query.Find("#readme").Html()
if name == "" {
p.SetSkip(true)
}
// the entity we want to save by Pipeline
p.AddField("author", name)
p.AddField("project", repository)
//p.AddField("readme", readme)
}

func main() {
// spider input:
// PageProcesser ;
// task name used in Pipeline for record;
spider.NewSpider(NewMyPageProcesser(), "TaskName").
AddUrl("https://github.com/hu17889?tab=repositories", "html"). // start url, html is the responce type ("html" or "json")
AddPipeline(pipeline.NewPipelineConsole()). // print result on screen
SetThreadnum(3). // crawl request by three Coroutines
Run()
}

模块介绍

Spider

用户一般无需自己实现。

功能:完成爬虫初始化,如加入各个默认子模块,管理并发,调度其他模块以及相关参数设置。

重要方法

  • 爬取启动方法:Get,GetAll,Run
  • 添加抓取链接: AddUrl, AddUrls, AddRequest, AddRequests
  • 主模块选择方法:AddPipeline,SetScheduler,SetDownloader
  • 参数设置:SetExitWhenComplete,SetThreadnum(设置爬虫并发数),SetSleepTime(设置爬取后的挂起时间)
  • 监控方法:OpenFileLog,OpenFileLogDefault(打开日志文件,使用mlog包进行记录日志),CloseFileLog,OpenStrace(打开跟踪,打印了爬虫执行信息到stderr),CloseStrace

Downloader

用户可选择自己实现。

功能:Spider从Scheduler的Request队列中获取包含待抓取url的Request对象,传入Downloader,Downloader下载该Request对象中的url所对应的页面或者其他类型的数据,现在支持(html,json,jsonp,text)几种结果类型,生成Page对象,同时找到下载结果所对应的解析go包并生成解析器存入Page对象中,如html是goquery包,json数据是simplejson包,jsonp数据会转成json数据,text是只存储了返回的原始字符串。

重要方法

  • Download 下载方法,返回包含下载内容(数据,header,cookies,request信息)的Page对象。

PageProcesser

用户必须实现此模块。

功能:这个模块主要做页面解析,用户需要在此处获取有用数据和下一步爬取的链接。PageProcesser的前后实现步骤如下:Spider调用PageProcesser模块解析页面中的数据,并存入Page对象中的PageItems对象中(以Key-Value对的形式保存),同时存入解析结果中的待抓取链接,Spider会将待抓取链接存入Scheduler模块中的Request队列中;所以用户可以根据自己的需求进行个性化实现爬虫解析功能。

重要方法

  • Process,爬取对象解析

Page

用户无需实现此模块。

功能:记录当前爬取对象的各种信息。

重要方法

  • 获取爬取结果内容:GetJson,GetHtmlParser,GetBodyStr(原始内容)
  • 获取爬取对象信息:GetRequest,GetCookies,GetHeader
  • 爬取状态:IsSucc(是否爬取成功from Download模块),Errormsg(爬取错误信息from Download模块)
  • 影响输出和后续爬取过程的方法:SetSkip,GetSkip(此次爬取结果不存储),AddTargetRequest,AddTargetRequests(设置待爬取链接),AddTargetRequestWithParams, AddTargetRequestsWithParams,AddField(保存解析内容的KV对)

Scheduler

用户一般无需自己实现。

功能:Scheduler实际上是一个Request对象队列,用来保存尚未被爬取的页面链接和相应的信息,当前队列是缓存到内存中(QueueScheduler),后续会增加基于Redis的队列,解决Spider异常失败后未爬取链接丢失问题;

Pipeline

用户可以选择自己实现。

功能:此模块主要完成数据的输出与持久化。在PageProcesser模块中可用数据被存入了Page对象中的PageItems对象中,此处会获取PageItems的结果并按照自己的要求输出。已有的样例有:PipelineConsole(输出到标准输出),PipelineFile(输出到文件中)

Request

功能: 包含一次请求的各种设置,如url,header,cookies等;

相关包以及推荐工具包

存储

数据解析

感谢

此项目的初始架构思路来自于JAVA爬虫项目webmagic;
同时依赖于开源GOLANG包simplejson包goquery包
在此对以上开源项目表示感谢。

常见问题与功能说明

爬虫执行方式

在Spider存在Run和Get,GetAll两个方式去执行爬虫,Run方式不会返回爬取结果,Get和GetAll会返回爬取结果,并在main中进一步处理。

Run方式

1
2
3
4
5
spider.NewSpider(NewMyPageProcesser(), "TaskName").                // 创建PageProcesser和Spider,设置任务名称
AddUrl("https://github.com/hu17889?tab=repositories", "html"). // 加入初始爬取链接,需要设置爬取结果类型,方便找到相应的解析器
AddPipeline(pipeline.NewPipelineConsole()). // 引入PipelineConsole输入结果到标准输出
SetThreadnum(3). // 设置爬取参数:并发个数
Run() // 开始执行

Get方式

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
// spider input:
// PageProcesser ;
// task name used in Pipeline for record;
sp := spider.NewSpider(NewMyPageProcesser(), "TaskName")
pageItems := sp.Get("http://baike.baidu.com/view/1628025.htm?fromtitle=http&fromid=243074&type=syn", "html") // url, html is the responce type ("html" or "json")

url := pageItems.GetRequest().GetUrl()
println("-----------------------------------spider.Get---------------------------------")
println("url\t:\t" + url)
for name, value := range pageItems.GetAll() {
println(name + "\t:\t" + value)
}

println("\n--------------------------------spider.GetAll---------------------------------")
urls := []string{
"http://baike.baidu.com/view/1628025.htm?fromtitle=http&fromid=243074&type=syn",
"http://baike.baidu.com/view/383720.htm?fromtitle=html&fromid=97049&type=syn",
}
pageItemsArr := sp.SetThreadnum(2).GetAll(urls, "html")
for _, item := range pageItemsArr {
url = item.GetRequest().GetUrl()
println("url\t:\t" + url)
fmt.Printf("item\t:\t%s\n", item.GetAll())
}

队列中的url去重

需要主动调用SetScheduler(scheduler.NewQueueScheduler(true)),spider默认使用的是不去重的QueueScheduler

编码问题

如果爬取的数据不是utf-8编码,则爬虫在Download模块中自动会捕获header中charset字段,进而使用iconv包进行编码转换。

设置爬取间隔时间

Spider.SetSleepTime(sleeptype string, s uint, e uint)

sleeptype是时间类型有fixed,rand两种方式,fixed方式下通过s参数设置间隔时间,rand方式下s代表最小间隔时间,e代表最大间隔时间;

日志与系统跟踪信息

*日志:输出系统错误信息和一些执行信息到日志文件中,通过Spider.OpenFileLog(filepath)打开,通过Spider.CloseFileLog()关闭;

*跟踪信息:输出执行过程到标准输出,通过通过Spider.OpenStrace()打开,通过Spider.CloseStrace()关闭;

如果想在自己的代码中加入日志,只需要导入日志包import "github.com/hu17889/go_spider/core/common/mlog",并执行mlog.LogInst().LogError("error message")或者mlog.LogInst().LogInfo("information")

默认子模块

  • 下载模块:HttpDownloader
  • 任务队列模块:QueueScheduler
  • 输出模块:PipelineConsole,PipelineFile

设置cookies和header

参考示例