網頁信息抓取進階 支持Js生成數據 Jsoup的不足之處

jopen 8年前發布 | 16K 次閱讀 網絡爬蟲

轉載請標明出處:http://blog.csdn.net/lmj623565791/article/details/23866427

今天又遇到一個網頁數據抓取的任務,給大家分享下。

說道網頁信息抓取,相信Jsoup基本是首選的工具,完全的類JQuery操作,讓人感覺很舒服。但是,今天我們就要說一說Jsoup的不足。

1、首先我們新建一個頁面

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
    <head>
        <title>main.html</title>

        <meta http-equiv="keywords" content="keyword1,keyword2,keyword3">
        <meta http-equiv="description" content="this is my page">
        <meta http-equiv="content-type" content="text/html; charset=UTF-8">
    <style type="text/css">
        a {
            line-height: 30px;
            margin: 20px;
        }

    </style>
        <!--<link rel="stylesheet" type="text/css" href="./styles.css">-->
        <script type="text/javascript">

var datas = [ {
    href : "http://news.qq.com/a/20140416/017800.htm",
    title : "高校一保安長相酷似作家莫言"
}, {
    href : "http://news.qq.com/a/20140416/015167.htm",
    title : "男子單臂托舉懸空女半小時"
}, {
    href : "http://news.qq.com/a/20140416/013808.htm",
    title : "女子上門討房租遭強奸拍裸照"
}, {
    href : "http://news.qq.com/a/20140416/016805.htm",
    title : "澳洲駱駝愛喝冰鎮啤酒解暑"
} ];

window.onload = function() {
    var infos = document.getElementById("infos");
    for( var i = 0 ; i < datas.length ; i++)
        {
            var a = document.createElement("a");
            a.href = datas[i].href ;
            a.innerText = datas[i].title;
            infos.appendChild(a);   
            infos.appendChild(document.createElement("br"))
        }
}
</script>
    </head>

    <body>
        Hello Main HttpUnit!
        <br>

        <div id="infos"
            style="width: 60%; border: 1px solid green; border-radius: 10px; margin: 0 auto;">
        </div>

    </body>
</html>
頁面上觀察是這樣顯示的:


我們審查元素:


如果你看到這樣的頁面,你會覺得拿Jsoup來抓取,簡直就是呵呵,小菜一疊,于是我們寫了這樣的代碼:

@Test
    public void testUserJsoup() {
        try {
            Document doc = Jsoup.connect(
                    "http://localhost:8080/strurts2fileupload/main.html")
                    .timeout(5000).get();
            Elements links = doc.body().getElementsByTag("a");
            for (Element link : links) {
                System.out.println(link.text() + " " + link.attr("href"));
            }
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
你會覺得就這幾行代碼,輕輕松松搞定,快快樂樂下班。于是運行發現,其實什么的抓取不到。

于是我們再回到頁面,打開頁面源代碼,也就是上面的HTML代碼,你恍然大悟,我靠,body里面根本沒有數據,難怪抓不到。這就是Jsoup的不足,如果Jsoup去抓取的頁面的數據,全都是頁面加載完成后,ajax獲取形成的,是抓取不到的。

下面給大家推薦另一個開源項目:HttpUnit,看名字是用于測試的,但是用來抓取數據也不錯

我們開始編寫類似Jsoup的代碼:

@Test
    public void testUserHttpUnit() throws FailingHttpStatusCodeException,
            MalformedURLException, IOException {

        /** HtmlUnit請求web頁面 */
        WebClient wc = new WebClient(BrowserVersion.CHROME);
        wc.getOptions().setUseInsecureSSL(true);
        wc.getOptions().setJavaScriptEnabled(true); // 啟用JS解釋器,默認為true
        wc.getOptions().setCssEnabled(false); // 禁用css支持
        wc.getOptions().setThrowExceptionOnScriptError(false); // js運行錯誤時,是否拋出異常
        wc.getOptions().setTimeout(100000); // 設置連接超時時間 ,這里是10S。如果為0,則無限期等待
        wc.getOptions().setDoNotTrackEnabled(false);
        HtmlPage page = wc
                .getPage("http://localhost:8080/strurts2fileupload/main.html");

        DomNodeList<DomElement> links = page.getElementsByTagName("a");

        for (DomElement link : links) {
            System.out
                    .println(link.asText() + "  " + link.getAttribute("href"));
        }
    }
再看一下運行結果:


完美解決,HttpUnit其實就相當于一個沒有UI的瀏覽器,它可以讓頁面上的js執行完成后,再抓取信息,具體的介紹,google一下就行。主要給大家介紹一種方案!


如果你覺得這篇文章對你有用,就頂一個~



來自: http://blog.csdn.net//lmj623565791/article/details/23866427

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!