Ioan F on Unsplash 在資料分析的過程中,蒐集來的大量數據很可能不是那麼完整,像是含有空值、NULL或重複等,這時候就需要適當的清理與處理,讓資料集更符合所需,進而能夠精確的分析。 而Pandas套件提供了許多資料清理的方法(Method),本文就以 Kaggle網站的「Netflix data with IMDB scores added」資料集(mycsvfile.csv) 為例,來和大家分享這些方法(Method)的應用方式,包含:
Pankaj Patel on Unsplash Pandas套件相信是Python開發人員在資料分析的領域中, 最普遍使用的工具之一,對於蒐集來的資料進行後續觀察及清理都相當的便利,而如果您和筆者一樣是Visual Studio Code開發工具的愛好者,利用Pandas套件操作資料後,在印出結果時,就會長得像以下的圖樣:
Photo by Sigmund on Unsplash 在實務上開發Scrapy網頁爬蟲時,難免過程中會發生錯誤或產生問題,這時候該如何有效的偵錯找到原因,進而提升開發效率及品質,就是一個非常重要的議題。 而Scrapy網頁爬蟲框架提供了許多非常實用的方法,來幫助開發人員有效的偵錯,本文就 來和大家分享3個筆者最常使用的偵錯方法,包含: