Photo by Surface on Unsplash 想要進行資料分析,除了利用Python網頁爬蟲蒐集第一層的網頁資料外,有時候為了要 更瞭解資料的內容或是 讓分析的結果更加精確,就會需要爬取下一層的網頁,也就是詳細資料。 舉例來說,筆者想要對不同廠牌的筆電進行分析,這時候使用Python網頁爬蟲除了取得網頁第一層的筆電名稱外,還需要爬取每個筆電的下一層網頁,來取得詳細的規格內容,才有辦法進行比較。
Photo by Austin Distel on Unsplash 相信大家在瀏覽網頁的經驗中,都有看過利用分頁的方式來呈現,將內容切分為好幾頁,除了能夠提升網頁的執行效率外,也增加了使用者的體驗。 在前面的Scrapy網頁爬蟲框架系列教學中,皆分享了爬取單一網頁的內容,這時候如果想要利用Scrapy網頁爬蟲框架來爬取多頁的資料,該如何實作呢?本文就來延續 [Scrapy教學7]教你Scrapy框架匯出CSV檔案方法提升資料處理效率 文章的教學內容,一起來學習這個技巧吧。