網頁信息抓取進階 支持Js生成數據 Jsoup的不足之處
轉載請標明出處:http://blog.csdn.net/lmj623565791/article/details/23866427
今天又遇到一個網頁數據抓取的任務,給大家分享下。
說道網頁信息抓取,相信Jsoup基本是首選的工具,完全的類JQuery操作,讓人感覺很舒服。但是,今天我們就要說一說Jsoup的不足。
1、首先我們新建一個頁面
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"> <html> <head> <title>main.html</title> <meta http-equiv="keywords" content="keyword1,keyword2,keyword3"> <meta http-equiv="description" content="this is my page"> <meta http-equiv="content-type" content="text/html; charset=UTF-8"> <style type="text/css"> a { line-height: 30px; margin: 20px; } </style> <!--<link rel="stylesheet" type="text/css" href="./styles.css">--> <script type="text/javascript"> var datas = [ { href : "http://news.qq.com/a/20140416/017800.htm", title : "高校一保安長相酷似作家莫言" }, { href : "http://news.qq.com/a/20140416/015167.htm", title : "男子單臂托舉懸空女半小時" }, { href : "http://news.qq.com/a/20140416/013808.htm", title : "女子上門討房租遭強奸拍裸照" }, { href : "http://news.qq.com/a/20140416/016805.htm", title : "澳洲駱駝愛喝冰鎮啤酒解暑" } ]; window.onload = function() { var infos = document.getElementById("infos"); for( var i = 0 ; i < datas.length ; i++) { var a = document.createElement("a"); a.href = datas[i].href ; a.innerText = datas[i].title; infos.appendChild(a); infos.appendChild(document.createElement("br")) } } </script> </head> <body> Hello Main HttpUnit! <br> <div id="infos" style="width: 60%; border: 1px solid green; border-radius: 10px; margin: 0 auto;"> </div> </body> </html>頁面上觀察是這樣顯示的:
我們審查元素:
如果你看到這樣的頁面,你會覺得拿Jsoup來抓取,簡直就是呵呵,小菜一疊,于是我們寫了這樣的代碼:
@Test public void testUserJsoup() { try { Document doc = Jsoup.connect( "http://localhost:8080/strurts2fileupload/main.html") .timeout(5000).get(); Elements links = doc.body().getElementsByTag("a"); for (Element link : links) { System.out.println(link.text() + " " + link.attr("href")); } } catch (IOException e) { e.printStackTrace(); } }你會覺得就這幾行代碼,輕輕松松搞定,快快樂樂下班。于是運行發現,其實什么的抓取不到。
于是我們再回到頁面,打開頁面源代碼,也就是上面的HTML代碼,你恍然大悟,我靠,body里面根本沒有數據,難怪抓不到。這就是Jsoup的不足,如果Jsoup去抓取的頁面的數據,全都是頁面加載完成后,ajax獲取形成的,是抓取不到的。
下面給大家推薦另一個開源項目:HttpUnit,看名字是用于測試的,但是用來抓取數據也不錯
我們開始編寫類似Jsoup的代碼:
@Test public void testUserHttpUnit() throws FailingHttpStatusCodeException, MalformedURLException, IOException { /** HtmlUnit請求web頁面 */ WebClient wc = new WebClient(BrowserVersion.CHROME); wc.getOptions().setUseInsecureSSL(true); wc.getOptions().setJavaScriptEnabled(true); // 啟用JS解釋器,默認為true wc.getOptions().setCssEnabled(false); // 禁用css支持 wc.getOptions().setThrowExceptionOnScriptError(false); // js運行錯誤時,是否拋出異常 wc.getOptions().setTimeout(100000); // 設置連接超時時間 ,這里是10S。如果為0,則無限期等待 wc.getOptions().setDoNotTrackEnabled(false); HtmlPage page = wc .getPage("http://localhost:8080/strurts2fileupload/main.html"); DomNodeList<DomElement> links = page.getElementsByTagName("a"); for (DomElement link : links) { System.out .println(link.asText() + " " + link.getAttribute("href")); } }再看一下運行結果:
完美解決,HttpUnit其實就相當于一個沒有UI的瀏覽器,它可以讓頁面上的js執行完成后,再抓取信息,具體的介紹,google一下就行。主要給大家介紹一種方案!
如果你覺得這篇文章對你有用,就頂一個~
來自: http://blog.csdn.net//lmj623565791/article/details/23866427
本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!