跳到主要內容

[Python爬蟲教學]7個降低Python網頁爬蟲被偵測封鎖的實用方法

7_tips_to_avoid_getting_blocked_while_scraping
Photo by Denise Jans on Unsplash
現在的網頁五花八門,其中充滿了許多有價值的資料,因此有許多的使用者都會使用Python網頁爬蟲的技術來進行取得,而這也衍生了可能因為過量的請求(Request),導致網站的伺服器過載,而產生問題。

所以,越來越多的網站開始偵測網頁爬蟲,將其封鎖,這時候,在開發Python網頁爬蟲時,該如何降低被偵測到的風險呢?

本文提供了以下7個方法給讀者進行參考:

  • 輪流切換IP位址
  • 設定請求表頭(Request Headers)
  • 設定使用者代理(User-Agent)
  • 設定參照位址(Referer)
  • 設定隨機的延遲時間
  • 使用無頭瀏覽器(Headless Browser)
  • 避免掉入網頁蜜罐陷阱(Honeypot Traps)

PS.提醒大家,在爬取的過程中,要尊重對方的網站及其它的使用者,避免過量的請求(Request)而破壞網站的使用體驗。

一、輪流切換IP位址

如果固定的使用同一組IP位址,在固定的時間內大量的請求(Request)網站,毫無疑問有很大的機率會被認為是網頁爬蟲,進而被封鎖請求(Request)。

因此,要利用Python網頁爬蟲爬取網站時,會建議需要擁有多組的IP位址,在每一次的請求(Request)時,輪流切換使用,來降低被偵測到的機會,可以參考使用Proxy切換服務,像是Scrapingdog等,或是IP切換服務,像是ScraperAPI等,讓Python網頁爬蟲進行請求(Request)時,能夠使用不同的IP位址。

二、設定請求表頭(Request Headers)

請求表頭(Request Headers)就是在瀏覽器發送任何一個請求(Request)時,告訴目標網頁相關的瀏覽器資訊,可以在Chrome瀏覽器開發者模式的Network頁籤下看到,如下圖:

7_tips_to_avoid_getting_blocked_while_scraping

為了讓Python網頁爬蟲在發送請求(Request)時,能夠像真實的瀏覽器一樣,最好要設定請求表頭(Request Headers)資訊,如果沒有設定,很明顯就會被認為是Python網頁爬蟲而被封鎖。

除了能夠在Chrome瀏覽器開發者模式得知自己的請求表頭(Request Headers)外,也可以利用此網站來查看,在Python網頁爬蟲的專案中,只要複製其中的headers欄位來使用即可,如下範例

import requests


headers = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9", 
    "Accept-Encoding": "gzip, deflate, br", 
    "Accept-Language": "zh-TW,zh;q=0.9", 
    "Host": "example.com",  #目標網站 
    "Sec-Fetch-Dest": "document", 
    "Sec-Fetch-Mode": "navigate", 
    "Sec-Fetch-Site": "none", 
    "Upgrade-Insecure-Requests": "1", 
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36" #使用者代理
}

response = requests.get(url="https://example.com", headers=headers)

三、設定使用者代理(User-Agent)

雖然設定了請求表頭(Request Headers),但是在固定時間內,有大量相同的請求表頭(Request Headers)瀏覽器進行請求(Request),也很容易被認為是Python網頁爬蟲。

在剛剛的請求表頭(Request Headers)中,有一個欄位叫做使用者代理(User-Agent),用來告訴網站您是使用什麼瀏覽器來進行請求(Request)的,為了避免被偵測到是網頁爬蟲,這時候就可以隨機的替換使用者代理(User-Agent)。

舉例來說,在Python網頁爬蟲的專案中,可以使用fake_useragent套件,在每一次的請求(Request)前,隨機產生一個使用者代理(User-Agent),並且加入到請求表頭(Request Headers)中,如下範例

import requests
from fake_useragent import UserAgent


user_agent = UserAgent()
response = requests.get(url="https://example.com", headers={ 'user-agent': user_agent.random })

這樣就能夠避免Python網頁爬蟲的每一次請求(Request)皆使用相同的使用者代理(User-Agent),而被偵測到。

四、設定參照位址(Referer)

請求表頭(Request Headers)中另一個重要的欄位就是參照位址(Referer),用來告訴網站這個請求(Request)是來自於哪一個網站,如下範例

import requests


headers = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9", 
    "Accept-Encoding": "gzip, deflate, br", 
    "Accept-Language": "zh-TW,zh;q=0.9", 
    "Host": "example.com",  #目標網站
    "Sec-Fetch-Dest": "document", 
    "Sec-Fetch-Mode": "navigate", 
    "Sec-Fetch-Site": "none", 
    "Upgrade-Insecure-Requests": "1", 
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36", #使用者代理
    "Referer": "https://www.google.com/"  #參照位址
}

response = requests.get(url="https://example.com", headers=headers)

以上範例的第14行加入Referer欄位後,表示在第17行發送請求時,告訴example.com網站這個請求來源為Google網站。但是,如果在每一次的請求(Request)都使用相同的參照位址(Referer),在大型的網站中,同樣可能會被攔下來。

所以,這邊可以使用像SEMRush的工具,來顯示目標網頁的反向連結,也就是能夠到達目標網頁的其它連結,就可以在Python網頁爬蟲的每一次請求(Request)前,將不同的反向連結設定到參照位址(Referrer)中,讓每一次的來源網站都不相同,降低被網頁偵測到的風險。以下使用SEMRush工具來查看Facebook網站的反向連結,如下圖:

7_tips_to_avoid_getting_blocked_while_scraping

五、設定隨機的延遲時間

網頁爬蟲最明顯的特性就是每一次的請求(Request)間隔時間都相同,或是具有固定的模式,這是一般人類很難達到的任務,當符合這樣的條件,就很容易被偵測到。

所以,在每一次請求(Request)之間,最好設定隨機的延遲時間(Delay),這樣除了防止每一次的請求(Request)間隔時間不同之外,也沒有固定的請求模式,可以參考以下的範例

import random
import time


delay_choices = [8, 5, 10, 6, 20, 11]  #延遲的秒數
delay = random.choice(delay_choices)  #隨機選取秒數
time.sleep(delay)  #延遲

六、使用無頭瀏覽器(Headless Browser)

有些網頁為了偵測網頁爬蟲,會檢查請求(Request)的瀏覽器Cookie及JavaScript的執行細節等,所以,就可以使用無頭瀏覽器(Headless Browser)來執行網頁爬蟲。

無頭瀏覽器(Headless Browser)和一般瀏覽器不一樣的地方是,它沒有圖形化的使用者介面,通常會使用指令的方式來執行,知名的Selenium套件就可以讓開發人員利用程式碼,自動化控制瀏覽器的執行,模擬人類的操作,降低被偵測到的風險,使用的方式可以參考[Python爬蟲教學]整合Python Selenium及BeautifulSoup實現動態網頁爬蟲文章。

七、避免掉入網頁蜜罐陷阱(Honeypot Traps)

網頁蜜罐陷阱(Honeypot Traps)就是許多網頁會在HTML原始碼中埋入只有網頁爬蟲會讀取到的隱藏連結或屬性,如果在開發Python網頁爬蟲沒有注意或避開時,很容易就會被偵測到而被封鎖,舉例來說,有個隱藏的連結帶有「display:none」或「visibility: hidden」的CSS屬性等,這是正常的使用者看不到,而網頁爬蟲所能讀取到的。

避免掉入網頁蜜罐陷阱(Honeypot Traps),除了要注意網頁的HTML原始碼之外,另一個方法就是在開發Python網頁爬蟲時,可以參考該網頁的網站地圖(Sitemap),其中會列出公開給使用者存取的網頁網址,在開發的過程中,就盡量挑選裡面的公開網址來進行爬取

八、小結

本文所分享的7個實用技巧,希望對於您在開發Python網頁爬蟲時,能夠降低被封鎖的風險,不過也再次提醒,要有禮貌的進行資料的爬取,避免大量的請求(Request),而造成網站的困擾。如果您還有其它的實用技巧,歡迎在底下留言和我分享唷 :)

如果您喜歡我的文章,請幫我按五下Like(使用GoogleFacebook帳號免費註冊),支持我創作教學文章,回饋由LikeCoin基金會出資,完全不會花到錢,感謝大家。
有想要看的教學內容嗎?歡迎利用以下的Google表單讓我知道,將有機會成為教學文章,分享給大家😊

Python學習資源
Python網頁爬蟲推薦課程
    Python網頁爬蟲-BeautifulSoup教學
    Python網頁爬蟲-Selenium教學
    Python非同步網頁爬蟲
    Python網頁爬蟲應用
    Python網頁爬蟲部署
    Python網頁爬蟲資料儲存
    Python網頁爬蟲技巧

    留言

    這個網誌中的熱門文章

    [Python爬蟲教學]7個Python使用BeautifulSoup開發網頁爬蟲的實用技巧

    Photo by Stanley Dai on Unsplash 在實務上開發專案時,很多時候會利用其他網站的資料來進行分析或運用,而取得的方式除了透過網站所提供的 API(Application Programming Interface) 外,也可以利用 Python 來開發爬蟲程式,將網頁的 HTML 內容下載下來,接著利用 BeautifulSoup 套件 (Package) ,擷取所需的資訊。 本文將開發一個簡單的爬蟲程式,爬取「 ETtoday 旅遊雲 」網頁,擷取桃園旅遊景點的標題資訊,如下圖: 取自ETtoday 的旅遊雲 而在開發的過程中,常會需要搜尋 HTML 的節點,本文將分享幾個常用的方法,包含: BeautifulSoup 安裝 以 HTML 標籤及屬性搜尋節點 以 CSS 屬性搜尋節點 搜尋父節點 搜尋前、後節點 取得屬性值 取得連結文字 一、 BeautifulSoup 安裝 BeautifulSoup 是一個用來解析 HTML 結構的 Python 套件 (Package) , 將取回的網頁 HTML 結構, 透過其提供的方法 (Method) ,能夠輕鬆的搜尋及擷取網頁上所需的資料,因此廣泛的 應用在網頁爬蟲的開發上 。 Beautifulsoup 套件 (Package) 可以透過 pip 指令來進行安裝,如下範例: pip install beautifulsoup4 而要解析網頁的 HTML 程式碼前,還需要安裝 Python 的 requests 套件 (Package) ,將要爬取的網頁 HTML 程式碼取回來,安裝方式如下: pip install requests 安裝完成後,首先引用 requests 套件 (Package) ,並且 透過 get() 方法 (Method) 存取 ETtoday 旅遊雲的桃園景點網址,如下範例: import requests response = requests.get( "https://travel.ettoday.net/category/%E6%A1%83%E5%9C%92/") 將網頁的 HTML 程式碼取回來後,接著引用 BeautifulSoup

    Python學習資源整理

    Photo by Pablo Heimplatz on Unsplash 本文將分享在學習 Python的 過程中,所參考的學習資源,由於喜歡做中學,所以分享的教學資源大部分都會有應用實作,除了能夠瞭解基本的 Python 語法外,透過實際的專案開發,可以增加熟悉度,並且從中培養解決問題的能力。而今天分享的 Python 學習資源,分別有: 網站 書籍 YouTube頻道 線上課程 一、網站 以下是除了 Python 官方之外,推薦的教學網站,除了附有範例程式碼說明之外,觀念講解清楚且易於理解,包含: 1. Real Python: Python Tutorials 2. Python Programming Language - GeeksforGeeks 3. ccClub(Coding&Co-working Club) 二、書籍 1. Python 初學特訓班(第四版):從快速入門到主流應用全面實戰(附250分鐘影音教學/範例程式) 這本書從 Python 的基本語法教學 開始 ,最後進行幾個應用程式的開發,包含了 YouTube 、 LINE Bot 聊天機器人、 網頁爬蟲 及資訊圖表繪製等 Python 專案的開發,這也是我非常喜歡的原因,學習任何的程式語言,在學習完基礎語法後,就是要透過實際的專案開發來練習及增加熟悉度,其中的實戰專案也是我目前正在學習的,並且還有附影音教學,非常適合初學者入門或是想要增加自己實戰經驗的開發人員。 2. Python 自動化的樂趣:搞定重複瑣碎&單調無聊的工作(第二版) 這本書同樣是先介紹 Python 的基本重要語法,簡潔易懂,不過這裡的專案實作比較是針對 Python 自動化的處理,包含Web擷取資訊、工作排程、影像圖片處理及 Email 發送等,是我在開發自動化專案時的參考書籍,實作範例都很實用,適合初學者及對 Python 自動化處理有興趣的開發人員。 3. Python 設計模式 實務上在開發專案時,大家都知道需求會隨著業務一直改變,這時候就會有機會修改程式碼,而有好的架構會讓程式碼好維護,相信這是開發人員所追求的,這本書就是介紹 Python 常用的設計模式 (Design Pattern) 及設計原則

    [Python爬蟲教學]Python網頁爬蟲結合LINE Notify打造自動化訊息通知服務

    Photo by William Hook on Unsplash 日常生活中,每個人都有關注的事情,像是演唱會門票的開賣、喜歡的商品降價或新電影上檔等,而為了要及時自動取得這些資訊, Python 網頁爬蟲就被廣泛的使用,除了將爬取的資訊透過 [Python 實戰應用 ]Python 寄送 Gmail 電子郵件實作教學 文章介紹的電子郵件進行通知外,另一個備受歡迎的接收通知管道就是 LINE 。 而 LINE 官方提供了 LINE Notify 的服務,只要完成和 LINE 網站的連動設定,就可以透過 LINE Notify 推播或傳送訊息至目標使用者的 LINE 中。 本文即以 Udemy 線上課程網站為例,利用 Python 網頁爬蟲關注想購買的線上課程,只要低於指定的價格,就透過 LINE Notify 服務傳送訊息給使用者。本文的重點包含: 登錄 LINE Notify 服務 發行 LINE Notify 權杖(Token) 整合 Python 網頁爬蟲及 LINE Notify 服務 一、登錄 LINE Notify 服務 首先,前往 LINE Notify 官網 ,來進行Python網頁爬蟲與LINE Notify的連動設定,如下圖: 點選右上角的登入,輸入 LINE 帳號及密碼,如下圖: 成功登入後,就可以看到「管理登錄服務」頁面,如下圖: 接著,點擊「登錄服務」,輸入 LINE Notify 服務的基本資料,由於本文的 Python 爬蟲是跑在本機上,所以「服務網址」及「 Callback URL 」皆為 http://127.0.0.1 ,如下範例: 填寫完成後,點擊「同意並前往下一步」,就可以看到剛剛所輸入的基本資料,確認沒問題點選「登錄」按鈕即可,如下範例: 這時後 LINE Notify 會發送認證郵件到登錄服務時,所填寫的電子郵件帳號中,如下圖: 完成電子郵件認證後,點擊「前往服務一覽」,可以看到 LINE Notify 配發了一個 Client ID(帳號) 給我們,如下圖: 而密碼則需點擊服務,才可以看到,如下圖: 以上就完成了 LINE Notify 服務的基本資料登錄了。 二、發行 LINE Notify 權杖 (Token) 有了的服務帳號及密碼後,接下來,就可以向 LINE Notify 取得權杖 (token) ,各位可以把

    [Python+LINE Bot教學]6步驟快速上手LINE Bot機器人

    Photo by Yura Fresh on Unsplash 每當朋友或家人要聚餐時,是不是總要花很長的時間尋找評價不錯的餐廳?不但要確認營業時間、消費價格及地點,還要觀看許多的美食文章才有辦法決定,這時候如果有人能夠明確提供幾間符合條件且有人氣的餐廳作為選擇,想必會省事許多。 所以筆者開發了一個美食的 LINE Bot 小作品,透過對談的方式瞭解使用者所要尋找的餐廳條件後,利用 Python 網頁爬蟲取得目前正在營業的五間最高人氣餐廳資料,回覆給使用者作為參考。 為了要讓想學習的您能夠由淺入深,瞭解其中的實作過程,所以將會分成三篇文章來進行教學。 2020/06/30 補充說明 而在進行實作前,先來看一下 LINE Bot 主要的執行架構,如下圖: 使用者透過 LINE 發送訊息時, LINE Platform 將會進行接收,並且傳遞至我們所開發的 LINE Bot 執行邏輯運算後,透過 LINE 所提供的 Messaging API 回應訊息給 LINE Platform ,最後再將訊息傳遞給使用者。 其中 Messaging API(Application Programming Interface) ,就是 LINE 官方定義的 回應訊息 標準介面,包含 Text (文字)、 Sticker (貼圖)、 Video (影片)、 Audio (聲音)及 Template (樣板)訊息等,完整的說明可以參考 LINE 的 官方文件 。 所以在我們的 LINE Bot 回應訊息時,就要依據 Messaging API 定義的規範,傳入相應的參數後, Messaging API 就會回應使用者相對的訊息類型。簡單來說,就是 LINE Platform 與 LINE Bot 的溝通橋樑。 而本文就先以最基本的使用者發送什麼訊息, LINE Bot 就回應什麼訊息為例,讓讀者體會其中的運作方式,整體架構如下圖: 在 LINE Bot 的部分,使用 Django 框架來進行建置,並且透過 Messaging API 回應 Text (文字)訊息。在下一篇文章中,將會加入 Python 網頁爬蟲,取得美食網站的資訊回應給使用者。 本文的實作步驟包含: 建立 Provider 建立 Messaging API channel 設定 LINE Bot 憑證 開發 LINE B

    [Python物件導向]淺談Python類別(Class)

    Photo by Bram Naus on Unsplash 在學習程式語言時,或多或少都有聽過物件導向程式設計 (Object-oriented programming ,簡稱 OOP) ,它是一個具有物件 (Object) 概念的開發方式,能夠提高軟體的重用性、擴充性及維護性,在開發大型的應用程式時更是被廣為使用,所以在現今多數的程式語言都有此種開發方式, Python 當然也不例外。而要使用物件導向程式設計就必須對類別 (Class) 及物件 (Object) 等有一些基本的了解,包含了: 類別 (Class) 物件 (Object) 屬性 (Attribute) 建構式 (Constructor) 方法 (Method) 我們先來看一下今天要來建立的類別: # 汽車類別 class Cars: # 建構式 def __init__(self, color, seat): self.color = color # 顏色屬性 self.seat = seat # 座位屬性 # 方法(Method) def drive(self): print(f"My car is {self.color} and {self.seat} seats.") 接下來就針對類別 (Class) 各個部分來進行介紹。 一、類別 (Class) 簡單來說,就是物件 (Object) 的藍圖 (blueprint) 。就像要生產一部汽車時,都會有設計圖,藉此可以知道此類汽車會有哪些特性及功能,類別 (Class) 就類似設計圖,會定義未來產生物件 (Object) 時所擁有的屬性 (Attribute) 及方法 (Method) 。而定義類別的語法如下: class classname:   statement 首先會有 class 關鍵字,接著自定類別名稱,最後加上冒號。類別名稱的命名原則習慣上使用 Pascal 命名法,也就是每個單字字首大寫,不得使用空白或底線分隔單字,如下範例: #範例一 class Cars: #範例二 class MyCars: 二、物件 (Object) 就是透過

    [Python爬蟲教學]整合Python Selenium及BeautifulSoup實現動態網頁爬蟲

    Photo by LAUREN GRAY on Unsplash 相信大家都知道,取得資料後能夠進行許多的應用,像是未來的趨勢預測、機器學習或資料分析等,而有效率的取得資料則是這些應用的首要議題,網頁爬蟲則是其中的一個方法。 網頁爬蟲就是能夠取得網頁原始碼中的元素資料技術,但是,有一些網頁較為特別,像是社群平台,需先登入後才能進行資料的爬取,或是電商網站,無需登入,但是要透過滾動捲軸,才會動態載入更多的資料,而要爬取這樣類型的網頁爬蟲,就稱為動態網頁爬蟲。 該如何實作呢? 本文將使用 Python Selenium 及 BeautifulSoup套件 來示範動態網頁爬蟲的開發過程,重點包含: BeautifualSoup vs Selenium 安裝 Selenium 及 Webdriver 安裝 BeautifulSoup Selenium get() 方法 Selenium 元素定位 Selenium send_keys() 方法 Selenium execute_script 方法 BeautifulSoup find_all() 方法 BeautifulSoup getText() 方法 一、 BeautifualSoup vs Selenium BeautifulSoup套件 相信對於 開發 網頁爬蟲的人員來說,應該都有聽過,能夠解析及取得 HTML 原始碼各個標籤的元素資料,擁有非常容易上手的方法 (Method) ,但是,對於想要爬取 動態 網頁資料來說,則無法達成,因為 BeautifulSoup套件 並沒有模擬使用者操作網頁的方法 (Method) ,像是輸入帳號密碼進行登入或滾動捲軸等,來讓網頁動態載入資料,進行爬取的動作。 所以,這時候,就可以使用被設計於自動化測試的 Selenium 套件,來模擬使用者的動作,進行登入後爬取資料或滾動卷軸,並且能夠執行 JavaScript 程式碼,這些就是 Selenium 與 BeautifulSoup套件 最大不同的地方。對於開發 Python 動態爬蟲來說,就可以結合 Selenium套件 以上的特點,讓網頁動態載入資料後,再利用 BeautifulSoup套件簡潔的 方法 (Method) ,將所需的資料爬取下來。 本文就是利用這樣的概念,利用 Selenium 套件登入 Facebook 後,前往

    解析Python模組(Module)和套件(Package)的概念

    Photo by Helloquence on Unsplash 當我們在開發大型應用程式時,如果沒有適當的組織程式碼,除了會降低開發的效率外,也不易於維護,所以模組 (Module) 化就顯得相當的重要,讓程式碼能夠透過引用的方式來重複使用,提升重用性 (Reusable) 。 但是隨著專案模組 (Module) 的增加,將難以管理及問題的追蹤,這時候就能將模組 (Module) 打包成套件 (Package) ,利用其階層式的結構來彈性規劃模組 (Module) 。 本篇文章就帶大家瞭解 Python 模組 (Module) 及套件 (Package) 的重要觀念,包含: 什麼是模組 (Module) 模組引用方式 (Import) 什麼是套件 (Package) dir() 函式 (dir function) 將模組當作腳本來執行 (Executing a Module as a Script) 一、什麼是模組 (Module) 模組 (Module) 就是一個檔案,包含了相關性較高的程式碼。隨著應用程式的開發規模越來越大,我們不可能把所有的程式碼都寫在同一份 Python 檔案中,一定會將關聯性較高的程式碼抽出來放在不同的檔案中來形成模組 (Module) ,主程式再透過引用的方式來使用。所以模組 (Module) 可以提高程式碼的重用性 (Reusable) 且易於維護。 假設我們現在要開發一個部落格,主程式為 app.py ,在還沒有模組化時,程式碼可能長得像這樣: #取得作者 def get_author(): return "Mike" #取得電子郵件 def get_email(): return "learncodewithmike@gmail.com" #新增文章 def add_post(title): pass #刪除文章 def delete_post(title): pass add_post() author = get_author() email = get_email() 各位應該可以想像,隨著部落格功能的增加,將所有程式碼都寫在  app.py 主程式中會變得怎麼樣。所以這

    [Python實戰應用]瞭解Python存取API的重要觀念-以KKBOX Open API為例

    Photo by Nirmal Rajendharkumar on Unsplash 在現今很多網站,都會透過 API(Application Programming Interface) 的方式來提供服務,讓用呼端能夠藉由這個介面存取其資料,進行多樣化的應用開發。本文就以 KKBOX Open API 為例,實作一個簡單的專案,示範 Python 如何存取音樂排行榜 API ,並且可以讓 使用者 選擇想聽的排行榜類別,試聽其中的歌曲。 經過本文的教學,將會瞭解 API 的基本觀念,以及學會如何解析 Python存取API後 的回傳結果,並且篩選所需的欄位,重點包含了: 什麼是 API 專案前置準備 KKBOX Open API 用戶端憑證 (Client Credentials) KKBOX Open API - Charts 一、什麼是 API 各位可以將 API(Application Programming Interface) 想像是一個大門,要進入存取必須提供合法的帳號及密碼,才能拿到 存取憑證 (Access Token) , 之後要存取門後的 API 資源,只要帶著這個憑證,就可以進行存取。 而實際上 API 就是一組網址,透過 HTTP 協定來 和用戶端 進行溝通。舉例來說,各位可以開啟 Chrome 瀏覽器,按下 F12 進入開發者視窗,點擊 Network 頁籤,接著輸入 google.com.tw 網址,可以看到類似下圖的結果: 點選任一個網址,可以看到以下的資訊: 其中的 Headers (標頭)就是瀏覽器發送至 Google 的資訊,如果換成是存取 KKBOX Open API , Request URL 就是 API 網址, Request Method 有幾個常用的類型,分別有: GET (查詢資料) POST (新增資料) PUT (修改資料) DELETE (刪除資料) 以上四個是在存取 API 時,常用的 HTTP 動詞。而 Response 頁籤中的內容即是 Google 回傳給瀏覽器的結果。 二、專案前置準備 有了基本的 API 觀念後 , 接著建立一個專案,並且開啟 Python 開發工具,本文將以 Visual S

    有效管理Python套件(Package)的工具及概念

    Photo by Kevin Bhagat on Unsplash 在實務上發展應用程式時,除了可以自行開發模組 (Module) 與套件 (Package) 外,很多時候會安裝使用第三方套件 (Package) ,來提升專案的開發效率。 所以本文將介紹如何在 PyPI 中搜尋所需的 Python 套件 (Package) , 並且 以 Windows 作業系統及 Visual Studio Code 開發工具為例,瞭解 Python 強大的套件管理工具,讓您 有效管理專案中的 Python 套件 (Package) 。 由於是在 Visual Studio Code 的 Terminal 視窗中下指令的方式來操作,所以使用命令提示字元視窗,也可以達到相同的效果。 本文重點包含: PyPI(Python Package Index) pip套件管理工具 pipenv套件管理工具 Pipfile 及 Pipfile.lock 檔案 一、 PyPI(Python Package Index) PyPI 是一個套件庫,位於 https://pypi.org ,其中包含了各式各樣的 Python 套件 (Package) ,在開發應用程式的過程中,可以到這邊來搜尋是否有所需的功能套件 (Package) ,安裝後透過引用的方式來進行使用,藉此 提升開發效率。 現在就來介紹幾個在使用 PyPI 時,需要瞭解的基本功能。首先, PyPI 的首頁如下圖: 各位可以在搜尋的地方查詢所需的套件,例如搜尋常應用在網路爬蟲的 beautifulsoup4 套件 (Package) ,從查詢結果可以看到許多相關的套件 (Package) ,如下圖: 以 beautifulsoup4 4.8.2為 例,點進此套件 (Package) 後,可以看到安裝的指令及最新版的發佈日期,如下圖: 一個套件 (Package) 要如何使用 ,一定會有文件可以參考,往下即可看到 Documentation 的連結,如下圖: 而套件 (Package) 的版本演進歷史則可以透過左邊的 Release history 來查看,如下圖: 以上是在使用 PyPI 上查找套件 (Package) 時,較常使用的部分,接下來,就來

    [Python實戰應用]掌握Python連結MySQL資料庫的重要操作

    Photo by Glenn Carstens-Peters on Unsplash 在現今很多的 Python 應用當中,像是開發爬蟲獲取網頁資料,或透過 API 取得所需的資訊等,都有機會將這些有效的資料存進資料庫中,透過其強大的查詢語法篩選、分析及過濾資料,甚至可以直接匯出 Excel 報表等,資料庫扮演了非常重要的角色。 所以本文將延續 瞭解 Python 存取 API 的重要觀念-以 KKBOX Open API 為例 文章,模擬實務上呼叫 KKBOX Open  API 取得資料後,如何透過 Python 存進 MySQL 資料庫中,並且執行資料的新增、查詢、修改及刪除操作, 利用實作來瞭解 Python 存取資料庫的重要概念 ,重點包含: Python 專案前置作業 安裝 MySQL 資料庫 建立 MySQL 資料庫 建立 MySQL 資料表 新增資料表資料 查詢資料表資料 修改資料表資料 刪除資料表資料 一、 Python 專案前置作業 在開始今天的實作前,將 Python 專案中的 charts.py 簡化為以下範例: import requests # 取得Token def get_access_token(): #API網址 url = "https://account.kkbox.com/oauth2/token" #標頭 headers = { "Content-Type": "application/x-www-form-urlencoded", "Host": "account.kkbox.com" } #參數 data = { "grant_type": "client_credentials", "client_id": "貼上ID內容", "client_secret": "貼上Secret內容"