Python利用Phantomjs抓取渲染JS后的網頁

jopen 9年前發布 | 117K 次閱讀 網絡爬蟲 PhantomJS

最近需要爬取某網站,無奈頁面都是JS渲染后生成的,普通的爬蟲框架搞不定,于是想到用Phantomjs搭一個代理。
Python調用Phantomjs貌似沒有現成的第三方庫(如果有,請告知小2),漫步了一圈,發現只有pyspider提供了現成的方案。
簡單試用了一下,感覺pyspider更像一個為新手打造的爬蟲工具,好比一個老媽子,有時無微不至,有時喋喋不休。 輕巧的小工具應該更受人喜愛,我也懷著一點私心,可以帶著我最愛的BeautifulSoup一塊兒用,而不用再學PyQuery(pyspider用來解析HTML),更不用忍受瀏覽器寫Python的糟糕體驗(偷笑)。
所以花了一個下午的時間,把pyspider當中實現Phantomjs代理的部分拆了出來,獨立成一個小的爬蟲模塊,希望大家會喜歡(感謝binux)。

準備工作

  • 你當然要有Phantomjs,廢話!(Linux下最好用supervisord守護,必須保持抓取的時候Phantomjs一直處于開啟狀態)
  • 用項目路徑下的phantomjs_fetcher.js啟動:phantomjs phantomjs_fetcher.js [port]
  • 安裝tornado依賴(使用了tornado的httpclient模塊)

調用是超級簡單的

from tornado_fetcher import Fetcher

# 創建一個爬蟲
>>> fetcher=Fetcher(
    user_agent='phantomjs', # 模擬瀏覽器的User-Agent
    phantomjs_proxy='http://localhost:12306', # phantomjs的地址
    poolsize=10, # 最大的httpclient數量
    async=False # 同步還是異步
    )
# 開始連接Phantomjs的代碼,可以渲染JS!
>>> fetcher.fetch(url)
# 渲染成功后執行額外的JS腳本(注意用function包起來!)
>>> fetcher.fetch(url, js_script='function(){setTimeout("window.scrollTo(0,100000)}", 1000)')

老規矩,代碼在小2的Github了,歡迎指正:PhantomjsFetcher

來自:建造者說

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!