一個Go語言實現的web爬蟲

g2b4 9年前發布 | 6K 次閱讀 Golang

在這個練習中,將會使用 Go 的并發特性來并行執行 web 爬蟲。
修改 Crawl 函數來并行的抓取 URLs,并且保證不重復。

</div>

package main

import ( "fmt" )

type Fetcher interface { // Fetch 返回 URL 的 body 內容,并且將在這個頁面上找到的 URL 放到一個 slice 中。 Fetch(url string) (body string, urls []string, err error) }

// Crawl 使用 fetcher 從某個 URL 開始遞歸的爬取頁面,直到達到最大深度。 func Crawl(url string, depth int, fetcher Fetcher) { // TODO: 并行的抓取 URL。 // TODO: 不重復抓取頁面。 // 下面并沒有實現上面兩種情況: if depth <= 0 { return } body, urls, err := fetcher.Fetch(url) if err != nil { fmt.Println(err) return } fmt.Printf("found: %s %q\n", url, body) for _, u := range urls { Crawl(u, depth-1, fetcher) } return }

func main() { Crawl("http://golang.org/&quot;, 4, fetcher) }

// fakeFetcher 是返回若干結果的 Fetcher。 type fakeFetcher map[string]*fakeResult

type fakeResult struct { body string urls []string }

func (f fakeFetcher) Fetch(url string) (string, []string, error) { if res, ok := (f)[url]; ok { return res.body, res.urls, nil } return "", nil, fmt.Errorf("not found: %s", url) }

// fetcher 是填充后的 fakeFetcher。 var fetcher = &fakeFetcher{ "http://golang.org/&quot;: &fakeResult{ "The Go Programming Language", []string{ "http://golang.org/pkg/&quot;, "http://golang.org/cmd/&quot;, }, }, "http://golang.org/pkg/&quot;: &fakeResult{ "Packages", []string{ "http://golang.org/&quot;, "http://golang.org/cmd/&quot;, "http://golang.org/pkg/fmt/&quot;, "http://golang.org/pkg/os/&quot;, }, }, "http://golang.org/pkg/fmt/&quot;: &fakeResult{ "Package fmt", []string{ "http://golang.org/&quot;, "http://golang.org/pkg/&quot;, }, }, "http://golang.org/pkg/os/&quot;: &fakeResult{ "Package os", []string{ "http://golang.org/&quot;, "http://golang.org/pkg/&quot;, }, }, }</pre>

 本文由用戶 g2b4 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!