一個Go語言實現的web爬蟲
在這個練習中,將會使用 Go 的并發特性來并行執行 web 爬蟲。
修改 Crawl 函數來并行的抓取 URLs,并且保證不重復。
package mainimport ( "fmt" )
type Fetcher interface { // Fetch 返回 URL 的 body 內容,并且將在這個頁面上找到的 URL 放到一個 slice 中。 Fetch(url string) (body string, urls []string, err error) }
// Crawl 使用 fetcher 從某個 URL 開始遞歸的爬取頁面,直到達到最大深度。 func Crawl(url string, depth int, fetcher Fetcher) { // TODO: 并行的抓取 URL。 // TODO: 不重復抓取頁面。 // 下面并沒有實現上面兩種情況: if depth <= 0 { return } body, urls, err := fetcher.Fetch(url) if err != nil { fmt.Println(err) return } fmt.Printf("found: %s %q\n", url, body) for _, u := range urls { Crawl(u, depth-1, fetcher) } return }
func main() { Crawl("http://golang.org/", 4, fetcher) }
// fakeFetcher 是返回若干結果的 Fetcher。 type fakeFetcher map[string]*fakeResult
type fakeResult struct { body string urls []string }
func (f fakeFetcher) Fetch(url string) (string, []string, error) { if res, ok := (f)[url]; ok { return res.body, res.urls, nil } return "", nil, fmt.Errorf("not found: %s", url) }
// fetcher 是填充后的 fakeFetcher。 var fetcher = &fakeFetcher{ "http://golang.org/": &fakeResult{ "The Go Programming Language", []string{ "http://golang.org/pkg/", "http://golang.org/cmd/", }, }, "http://golang.org/pkg/": &fakeResult{ "Packages", []string{ "http://golang.org/", "http://golang.org/cmd/", "http://golang.org/pkg/fmt/", "http://golang.org/pkg/os/", }, }, "http://golang.org/pkg/fmt/": &fakeResult{ "Package fmt", []string{ "http://golang.org/", "http://golang.org/pkg/", }, }, "http://golang.org/pkg/os/": &fakeResult{ "Package os", []string{ "http://golang.org/", "http://golang.org/pkg/", }, }, }</pre>