跳到主要內容

[Python爬蟲教學]學會使用Selenium及BeautifulSoup套件爬取查詢式網頁

python_integrate_selenium_and_beautifulsoup
Photo by Austin Distel on Unsplash
在多樣化的網頁中,為了避免一次載入大量的資料影響執行效能,除了可以使用分頁,或像電子商務及社群平台,透過滾動捲軸的方式動態載入資料外,另一種常見的做法,就是增加查詢的功能。

常見的查詢式網頁,舉例來說,像是訂票系統,在網頁載入時,並不會把所有的時刻票劵資訊顯示出來,而是需要使用者指定想要購買的時刻,點擊查詢後,才會載入資料。如果想要利用Python網頁爬蟲爬取這種查詢類型的網頁,該如何實作呢?

本文以臺灣證券交易所的「個股日收盤價及月平均價查詢式網頁為例,分享如何整合Python的selenium及beautifulsoup套件,自動化指定查詢條件,並且爬取查詢結果。其中的實作重點包含:
  • 「個股日收盤價及月平均價」網頁分析
  • 安裝selenium及beautifulsoup套件
  • selenium自動化指定查詢條件
  • beautifulsoup爬取查詢結果

一、「個股日收盤價及月平均價」網頁分析

臺灣證券交易所的「個股日收盤價及月平均價」,主要用來提供使用者查詢個股在指定的年月中,每日的收盤價及月平均價,如下圖:
python_integrate_selenium_and_beautifulsoup
如果有多檔股票需要分析,相信使用人工的方式來進行查詢及下載,會花費不少的時間,而透過Python網頁爬蟲,將會大幅提升取得資料的效率。

從上圖中可以看到,網頁分為查詢條件及結果,而指定查詢條件的部分,就需要使用Python的selenium自動化套件,來模仿使用者輸入年、月、股票代碼及點擊查詢按鈕,有了查詢結果後,即可利用Python的beautifulsoup套件,解析HTML原始碼,取得所需的資料。

二、安裝selenium及beautifulsoup套件

本文以Visual Studio Code為例,在Terminal視窗中利用以下的指令來安裝Python的selenium、beautifulsoup及webdriver-manager套件
$ pip install selenium

$ pip install beautifulsoup4

$ pip install webdriver-manager
其中,webdriver-manager套件是用來協助selenium套件,在執行Python網頁爬蟲時,自動下載瀏覽器的驅動程式(Webdriver)。

三、selenium自動化指定查詢條件

新增scraper.py檔案,引用剛剛所下載的beautifulsoup、selenium、webdriver及time模組(Module),如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time
為了要能夠自動化操作個股日收盤價及月平均價」查詢條件的年月下拉選單,所以範例中就需引用selenium套件的Select模組(Module),如上範例第3行。

接著,建立一個股票類別(Stock),其中包含建構式(Constructor)及爬取「個股日收盤價及月平均價」的daily方法(Method),如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	pass
其中,建構式(Constructor)為了提供使用者能夠傳入多檔股票代碼,所以使用*args參數,將傳入的多個股票代碼,打包成元組(Tuple),這樣在後續就能夠透過迴圈的方式,讀取多個股票代碼。

而daily()方法(Method),則包含兩個參數,分別是年份及月份,讓使用者可以彈性的傳入所要查詢的年月。

daily()方法(Method)中,首先,利用webdriver模組(Module)建立瀏覽器物件,其中,使用webdriver-manager模組(Module)自動下載瀏覽器驅動程式,接著,透過selenium套件的get()方法(Method),請求臺灣證券交易所的「個股日收盤價及月平均價」網頁,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")
接下來,就需要定位查詢條件的資料日期,在年份的地方,點擊滑鼠右鍵,選擇「檢查」,可以看到HTML原始碼如下:
python_integrate_selenium_and_beautifulsoup
這時候,就可以使用selenium套件的find_element_by_name()方法(Method)來進行元素的定位,由於是下拉選單,所以將定位的元素傳入selenium的Select模組(Module)來建立下拉選單物件,進而利用select_by_value()方法(Method),選取使用者所傳入的年份,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份
月份的部分,可以看到HTML原始碼為:
python_integrate_selenium_and_beautifulsoup
同樣使用selenium套件的find_element_by_name()方法(Method)來定位元素,傳入Select模組(Module)建立下拉選單物件,利用select_by_value()方法(Method),選取使用者所傳入的月份,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份
而股票代碼,可以看到它的HTML原始碼為:
python_integrate_selenium_and_beautifulsoup

由於不是下拉選單,所以使用selenium套件的find_element_by_name()方法(Method)來定位元素即可,並且利用send_keys()方法(Method)來模擬輸入資料,完成後,呼叫submit()方法(Method)送出,也就是查詢,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()
Python網頁爬蟲送出查詢條件後,就會產生查詢結果,也就是指定股票的日收盤價及月平均價」,為了避免在查詢等待的期間,Python網頁爬蟲在內容尚未完成就進行爬取,所以可以使用sleep()方法(Method),暫停一下,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()

        time.sleep(2)

四、beautifulsoup爬取查詢結果

接下來,要爬取查詢結果,就需要把網頁的原始碼,傳入beautifulsoup套件來進行解析,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()

        time.sleep(2)

        soup = BeautifulSoup(browser.page_source, "lxml")
回到日收盤價及月平均價」網頁,可以看到查詢結果的表格HTML原始碼為:
python_integrate_selenium_and_beautifulsoup
從上圖可以看到,表格(table)擁有id的屬性,所以可以利用beautifulsoup套件的find()方法(Method)來進行定位,如下範例:
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()

        time.sleep(2)

        soup = BeautifulSoup(browser.page_source, "lxml")

        table = soup.find("table", {"id": "report-table"})
有了表格(table)物件後,就可以再利用beautifulsoup套件的find_all()方法(Method),取得表格(table)下所有的資料欄位,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()

        time.sleep(2)

        soup = BeautifulSoup(browser.page_source, "lxml")

        table = soup.find("table", {"id": "report-table"})

        elements = table.find_all(
                "td", {"class": "dt-head-center dt-body-center"})
而要取得資料欄位中的文字,就需要透過迴圈進行讀取,並且利用beautifulsoup套件的getText()方法(Method)來取得,這邊使用Python Comprehension語法,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
	stockno.send_keys("2330")
	stockno.submit()

        time.sleep(2)

        soup = BeautifulSoup(browser.page_source, "lxml")

        table = soup.find("table", {"id": "report-table"})

        elements = table.find_all(
                "td", {"class": "dt-head-center dt-body-center"})
				
	data = [element.getText() for element in elements]
到目前為止,都是查詢一檔股票的實作,而要能夠自動化查詢多檔股票,則需要透過迴圈來重覆執行,如下範例
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import Select
from webdriver_manager.chrome import ChromeDriverManager
import time

class Stock:
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers

    def daily(self, year, month):
	browser = webdriver.Chrome(ChromeDriverManager().install())
        browser.get(
            "https://www.twse.com.tw/zh/page/trading/exchange/STOCK_DAY_AVG.html")

        select_year = Select(browser.find_element_by_name("yy"))
        select_year.select_by_value(year)  # 選擇傳入的年份

        select_month = Select(browser.find_element_by_name("mm"))
        select_month.select_by_value(month)  # 選擇傳入的月份

        stockno = browser.find_element_by_name("stockNo")  # 定位股票代碼輸入框
		
	result = []
        for stock_number in self.stock_numbers:
            stockno.clear()  # 清空股票代碼輸入框
	    stockno.send_keys(stock_number)
	    stockno.submit()

	    time.sleep(2)

	    soup = BeautifulSoup(browser.page_source, "lxml")

	    table = soup.find("table", {"id": "report-table"})

	    elements = table.find_all(
			"td", {"class": "dt-head-center dt-body-center"})
					
	    data = (stock_number,) + tuple(element.getText() for element in elements)
				   
	    result.append(data)

        print(result)
範例中第24行,建立result串列(List),是用來儲存多檔股票的日收盤價及月平均價」。接著,第25行迴圈讀取初始化的多檔股票代碼,其中,在每一次執行時,需先清空上一次查詢的股票代碼的輸入框,才進行股票代碼的輸入及查詢。最後,第39行為了能夠區別每檔股票的資料,所以增加了股票代碼,並且,與爬取的日收盤價及月平均價」轉型為元組(Tuple)打包起來,儲存至result串列(List)中。

接下來,就可以建立Stock物件,並且傳入想查詢的股票代碼來進行初始化,然後,呼教daily()方法(Method),指定年份及月份,來爬取多檔股票的日收盤價及月平均價」,如下範例
stock = Stock('2451', '2454', '2369')  # 建立Stock物件
stock.daily("2019", "7")  # 動態爬取指定的年月份中,股票代碼的每日收盤價
執行結果
[
 ('2451', '108/07/01', '71.70', '108/07/02', '71.30', '108/07/03', '67.70', '108/07/04', '67.50', '108/07/05', '67.80', '108/07/08', '67.70', '108/07/09', '68.70', '108/07/10', '68.60', '108/07/11', '68.10', '108/07/12', '67.70', '108/07/15', '68.00', '108/07/16', '67.60', '108/07/17', '67.30', '108/07/18', '67.00', '108/07/19', '67.40', '108/07/22', '67.00', '108/07/23', '67.50', '108/07/24', '66.90', '108/07/25', '67.50', '108/07/26', '67.40', '108/07/29', '68.20', '108/07/30', '67.80', '108/07/31', '68.00', '月平均收盤價', '68.02'), 
 ('2454', '108/07/01', '314.00', '108/07/02', '319.00', '108/07/03', '317.50', '108/07/04', '319.00', '108/07/05', '321.00', '108/07/08', '314.00', '108/07/09', '313.50', '108/07/10', '318.00', '108/07/11', '322.50', '108/07/12', '318.00', '108/07/15', '314.50', '108/07/16', '314.00', '108/07/17', '310.00', '108/07/18', '302.00', '108/07/19', '304.50', '108/07/22', '308.50', '108/07/23', '314.50', '108/07/24', '308.00', '108/07/25', '313.00', '108/07/26', '313.50', '108/07/29', '319.00', '108/07/30', '325.50', '108/07/31', '314.50', '月平均收盤價', '314.70'), 
 ('2369', '108/07/01', '8.36', '108/07/02', '8.39', '108/07/03', '8.45', '108/07/04', '8.46', '108/07/05', '8.48', '108/07/08', '8.49', '108/07/09', '8.40', '108/07/10', '8.36', '108/07/11', '8.41', '108/07/12', '8.62', '108/07/15', '8.91', '108/07/16', '8.81', '108/07/17', '8.83', '108/07/18', '8.76', '108/07/19', '8.80', '108/07/22', '8.90', '108/07/23', '8.88', '108/07/24', '8.81', '108/07/25', '8.87', '108/07/26', '9.11', '108/07/29', '9.19', '108/07/30', '8.98', '108/07/31', '8.91', '月平均收盤價', '8.70')
]

五、小結

本文的Python網頁爬蟲透過整合selenium及beautifulsoup套件,實現查詢式的網頁資料爬取,對於想要進行大量資料的分析,能夠提升資料取得的效率,讀者不妨利用本文所分享的實作方式,來開發自動化查詢的網頁爬蟲吧。

如果您喜歡我的文章,請幫我按五下Like(使用GoogleFacebook帳號免費註冊),支持我創作教學文章,回饋由LikeCoin基金會出資,完全不會花到錢,感謝大家。

有想要看的教學內容嗎?歡迎利用以下的Google表單讓我知道,將有機會成為教學文章,分享給大家😊

Python學習資源
Python網頁爬蟲推薦課程
    Python網頁爬蟲-BeautifulSoup教學
    Python網頁爬蟲-Selenium教學
    Python非同步網頁爬蟲
    Python網頁爬蟲應用
    Python網頁爬蟲部署
    Python網頁爬蟲資料儲存
    Python網頁爬蟲技巧


    留言

    這個網誌中的熱門文章

    [Python爬蟲教學]7個Python使用BeautifulSoup開發網頁爬蟲的實用技巧

    Photo by Stanley Dai on Unsplash 在實務上開發專案時,很多時候會利用其他網站的資料來進行分析或運用,而取得的方式除了透過網站所提供的 API(Application Programming Interface) 外,也可以利用 Python 來開發爬蟲程式,將網頁的 HTML 內容下載下來,接著利用 BeautifulSoup 套件 (Package) ,擷取所需的資訊。 本文將開發一個簡單的爬蟲程式,爬取「 ETtoday 旅遊雲 」網頁,擷取桃園旅遊景點的標題資訊,如下圖: 取自ETtoday 的旅遊雲 而在開發的過程中,常會需要搜尋 HTML 的節點,本文將分享幾個常用的方法,包含: BeautifulSoup 安裝 以 HTML 標籤及屬性搜尋節點 以 CSS 屬性搜尋節點 搜尋父節點 搜尋前、後節點 取得屬性值 取得連結文字 一、 BeautifulSoup 安裝 BeautifulSoup 是一個用來解析 HTML 結構的 Python 套件 (Package) , 將取回的網頁 HTML 結構, 透過其提供的方法 (Method) ,能夠輕鬆的搜尋及擷取網頁上所需的資料,因此廣泛的 應用在網頁爬蟲的開發上 。 Beautifulsoup 套件 (Package) 可以透過 pip 指令來進行安裝,如下範例: pip install beautifulsoup4 而要解析網頁的 HTML 程式碼前,還需要安裝 Python 的 requests 套件 (Package) ,將要爬取的網頁 HTML 程式碼取回來,安裝方式如下: pip install requests 安裝完成後,首先引用 requests 套件 (Package) ,並且 透過 get() 方法 (Method) 存取 ETtoday 旅遊雲的桃園景點網址,如下範例: import requests response = requests.get( "https://travel.ettoday.net/category/%E6%A1%83%E5%9C%92/") 將網頁的 HTML 程式碼取回來後,接著引用 BeautifulSoup

    [Python物件導向]淺談Python類別(Class)

    Photo by Bram Naus on Unsplash 在學習程式語言時,或多或少都有聽過物件導向程式設計 (Object-oriented programming ,簡稱 OOP) ,它是一個具有物件 (Object) 概念的開發方式,能夠提高軟體的重用性、擴充性及維護性,在開發大型的應用程式時更是被廣為使用,所以在現今多數的程式語言都有此種開發方式, Python 當然也不例外。而要使用物件導向程式設計就必須對類別 (Class) 及物件 (Object) 等有一些基本的了解,包含了: 類別 (Class) 物件 (Object) 屬性 (Attribute) 建構式 (Constructor) 方法 (Method) 我們先來看一下今天要來建立的類別: # 汽車類別 class Cars: # 建構式 def __init__(self, color, seat): self.color = color # 顏色屬性 self.seat = seat # 座位屬性 # 方法(Method) def drive(self): print(f"My car is {self.color} and {self.seat} seats.") 接下來就針對類別 (Class) 各個部分來進行介紹。 一、類別 (Class) 簡單來說,就是物件 (Object) 的藍圖 (blueprint) 。就像要生產一部汽車時,都會有設計圖,藉此可以知道此類汽車會有哪些特性及功能,類別 (Class) 就類似設計圖,會定義未來產生物件 (Object) 時所擁有的屬性 (Attribute) 及方法 (Method) 。而定義類別的語法如下: class classname:   statement 首先會有 class 關鍵字,接著自定類別名稱,最後加上冒號。類別名稱的命名原則習慣上使用 Pascal 命名法,也就是每個單字字首大寫,不得使用空白或底線分隔單字,如下範例: #範例一 class Cars: #範例二 class MyCars: 二、物件 (Object) 就是透過

    [Python+LINE Bot教學]6步驟快速上手LINE Bot機器人

    Photo by Yura Fresh on Unsplash 每當朋友或家人要聚餐時,是不是總要花很長的時間尋找評價不錯的餐廳?不但要確認營業時間、消費價格及地點,還要觀看許多的美食文章才有辦法決定,這時候如果有人能夠明確提供幾間符合條件且有人氣的餐廳作為選擇,想必會省事許多。 所以筆者開發了一個美食的 LINE Bot 小作品,透過對談的方式瞭解使用者所要尋找的餐廳條件後,利用 Python 網頁爬蟲取得目前正在營業的五間最高人氣餐廳資料,回覆給使用者作為參考。 為了要讓想學習的您能夠由淺入深,瞭解其中的實作過程,所以將會分成三篇文章來進行教學。 2020/06/30 補充說明 而在進行實作前,先來看一下 LINE Bot 主要的執行架構,如下圖: 使用者透過 LINE 發送訊息時, LINE Platform 將會進行接收,並且傳遞至我們所開發的 LINE Bot 執行邏輯運算後,透過 LINE 所提供的 Messaging API 回應訊息給 LINE Platform ,最後再將訊息傳遞給使用者。 其中 Messaging API(Application Programming Interface) ,就是 LINE 官方定義的 回應訊息 標準介面,包含 Text (文字)、 Sticker (貼圖)、 Video (影片)、 Audio (聲音)及 Template (樣板)訊息等,完整的說明可以參考 LINE 的 官方文件 。 所以在我們的 LINE Bot 回應訊息時,就要依據 Messaging API 定義的規範,傳入相應的參數後, Messaging API 就會回應使用者相對的訊息類型。簡單來說,就是 LINE Platform 與 LINE Bot 的溝通橋樑。 而本文就先以最基本的使用者發送什麼訊息, LINE Bot 就回應什麼訊息為例,讓讀者體會其中的運作方式,整體架構如下圖: 在 LINE Bot 的部分,使用 Django 框架來進行建置,並且透過 Messaging API 回應 Text (文字)訊息。在下一篇文章中,將會加入 Python 網頁爬蟲,取得美食網站的資訊回應給使用者。 本文的實作步驟包含: 建立 Provider 建立 Messaging API channel 設定 LINE Bot 憑證 開發 LINE B

    [Python教學]搞懂5個Python迴圈常見用法

    Photo by Scott Webb on Unsplash 在撰寫程式的過程中,都有機會要重複執行一些相同的運算,但是重複撰寫好幾次同樣的運算看起來非常的沒有效率,所以在這個情況下我們通常會使用迴圈來幫我們完成,本篇就來介紹 Python 迴圈的使用方式,包含 For-Loops 、 Nested Loops 及 while-Loops ,並且說明用來控制迴圈流程的 break 及 continue 指令。 一、 range() 方法 在開始介紹 Python 迴圈之前,先來說明一個在執行迴圈時常用的 range() 方法,主要用來幫我們產生數列,語法如下: range( 起始值 , 結束值 , 遞增 ( 減 ) 值 ) 使用說明: range(20) :起始值預設從 0 開始,所以會產生 0 到 19 的整數序列。 range(10,20) :起始值從 10 開始,所以會產生 10 到 19 的整數序列。 range(10,20,3) :起始值從 10 開始,遞增值為 3 ,所以會產生 10,13,16,19的整數序列 。 二、 Python For-Loops 敘述 可以針對 Iterable( 可疊代的 ) 物件來進行讀取, Python 內建幾個常用的 Iterable 物件,像是 String( 字串 ) 、 List( 串列 ) 、 Tuples( 元組 ) 、 Dictionary( 字典 ) 等,往後會出文章詳細的介紹。 Python for-loop 的語法如下: 在語法中, in 的後方就是 for-loop 要讀取的目標物,這個目標物的為 Iterable ( 可疊代的 ) 物件,一次讀取一個元素,然後用 item( 自訂變數名稱 ) 來接收每次讀取到的元素,執行區塊中的運算。注意 for-loop 的結尾需加上冒號 ( : ) 及區塊中的運算式要有相同的縮排,範例如下: 在範例中, for-loop 的讀取目標物為一個字串,每一次讀取一個字母,並且用 letter 變數來接收,執行 print() 方法。 三、 Python Nested Loops ( 巢狀迴圈 ) 簡單來說,就是迴圈中又有一層迴圈,我們來看一個範例:   這個巢狀迴

    [Python教學]5個必知的Python Function觀念整理

    Photo by Susan Holt Simpson on Unsplash 在寫程式碼時有一個非常重要的觀念是 DRY(Don’t Repeat Yourself) ,意思是避免 同樣的程式碼重複出現在很多個地方, 除了可讀性很低外,也不易維護。所以 要適當的進行封裝,來達到程式碼的重用性 (Reusable) 。 今天要來教大家如何建構自己的   Python 函式 (Function) ,就是能夠讓你的程式碼被重複的使用 (Reusable) ,並且提高維護性 及可讀性。其中有五個必須要知道的重要觀念, 包含了: 函式 (Function) 結構 函式(Function) 參數 函式(Function) *args 、 **kwargs 運算子 函式(Function) 種類 函式(Function) 變數範圍 (Scope) 一、函式 (Function) 結構 首先Python 函式 的結構包含了 def 關鍵字、 函式 名稱、參數及實作內容,如下範例: 函式 名稱的命名習慣上會使用小寫字母,並且以底線來分隔單字。參數用來接收外部資料,而實作的內容則是這個 函式 所要執行的任務,需注意縮排。接下來就針對 函式 的各個部分進行詳細的說明。 二、 函式(Function) 參數 參數簡單來說就是接收外部所傳來的資料,進而執行相關的邏輯運算。參數個數取決於 函式 內部運算時所需的資料個數,所以在一般情況下,呼叫 函式 時一定要傳入相對的參數個數資料,否則就會出現例外錯誤,如下範例: 函式 的參數,又可分為: 關鍵字參數 (Keyword Argument) : 呼叫函式時,在傳入參數值的前面加上函式所定義的參數名稱,如下範例。除了提高可讀性外,也可將此種參數打包成 字典 (Dictionary) 資料型態,在等一下的 xargs 、 xxargs 運算子部分會來進行說明。 預設值參數 (Default Argument) : 在函式定義的參數中,將可以選擇性傳入的參數設定一個預設值,當來源端有傳入該資料時,使用來源端的資料,沒有傳入時,則依照設定的預設值來進行運算,如下範例: 範例中沒有傳入日期參數資料,所以 函式 使用預設值 (2019

    [Python爬蟲教學]整合Python Selenium及BeautifulSoup實現動態網頁爬蟲

    Photo by LAUREN GRAY on Unsplash 相信大家都知道,取得資料後能夠進行許多的應用,像是未來的趨勢預測、機器學習或資料分析等,而有效率的取得資料則是這些應用的首要議題,網頁爬蟲則是其中的一個方法。 網頁爬蟲就是能夠取得網頁原始碼中的元素資料技術,但是,有一些網頁較為特別,像是社群平台,需先登入後才能進行資料的爬取,或是電商網站,無需登入,但是要透過滾動捲軸,才會動態載入更多的資料,而要爬取這樣類型的網頁爬蟲,就稱為動態網頁爬蟲。 該如何實作呢? 本文將使用 Python Selenium 及 BeautifulSoup套件 來示範動態網頁爬蟲的開發過程,重點包含: BeautifualSoup vs Selenium 安裝 Selenium 及 Webdriver 安裝 BeautifulSoup Selenium get() 方法 Selenium 元素定位 Selenium send_keys() 方法 Selenium execute_script 方法 BeautifulSoup find_all() 方法 BeautifulSoup getText() 方法 一、 BeautifualSoup vs Selenium BeautifulSoup套件 相信對於 開發 網頁爬蟲的人員來說,應該都有聽過,能夠解析及取得 HTML 原始碼各個標籤的元素資料,擁有非常容易上手的方法 (Method) ,但是,對於想要爬取 動態 網頁資料來說,則無法達成,因為 BeautifulSoup套件 並沒有模擬使用者操作網頁的方法 (Method) ,像是輸入帳號密碼進行登入或滾動捲軸等,來讓網頁動態載入資料,進行爬取的動作。 所以,這時候,就可以使用被設計於自動化測試的 Selenium 套件,來模擬使用者的動作,進行登入後爬取資料或滾動卷軸,並且能夠執行 JavaScript 程式碼,這些就是 Selenium 與 BeautifulSoup套件 最大不同的地方。對於開發 Python 動態爬蟲來說,就可以結合 Selenium套件 以上的特點,讓網頁動態載入資料後,再利用 BeautifulSoup套件簡潔的 方法 (Method) ,將所需的資料爬取下來。 本文就是利用這樣的概念,利用 Selenium 套件登入 Facebook 後,前往

    Python學習資源整理

    Photo by Pablo Heimplatz on Unsplash 本文將分享在學習 Python的 過程中,所參考的學習資源,由於喜歡做中學,所以分享的教學資源大部分都會有應用實作,除了能夠瞭解基本的 Python 語法外,透過實際的專案開發,可以增加熟悉度,並且從中培養解決問題的能力。而今天分享的 Python 學習資源,分別有: 網站 書籍 YouTube頻道 線上課程 一、網站 以下是除了 Python 官方之外,推薦的教學網站,除了附有範例程式碼說明之外,觀念講解清楚且易於理解,包含: 1. Real Python: Python Tutorials 2. Python Programming Language - GeeksforGeeks 3. ccClub(Coding&Co-working Club) 二、書籍 1. Python 初學特訓班(第四版):從快速入門到主流應用全面實戰(附250分鐘影音教學/範例程式) 這本書從 Python 的基本語法教學 開始 ,最後進行幾個應用程式的開發,包含了 YouTube 、 LINE Bot 聊天機器人、 網頁爬蟲 及資訊圖表繪製等 Python 專案的開發,這也是我非常喜歡的原因,學習任何的程式語言,在學習完基礎語法後,就是要透過實際的專案開發來練習及增加熟悉度,其中的實戰專案也是我目前正在學習的,並且還有附影音教學,非常適合初學者入門或是想要增加自己實戰經驗的開發人員。 2. Python 自動化的樂趣:搞定重複瑣碎&單調無聊的工作(第二版) 這本書同樣是先介紹 Python 的基本重要語法,簡潔易懂,不過這裡的專案實作比較是針對 Python 自動化的處理,包含Web擷取資訊、工作排程、影像圖片處理及 Email 發送等,是我在開發自動化專案時的參考書籍,實作範例都很實用,適合初學者及對 Python 自動化處理有興趣的開發人員。 3. Python 設計模式 實務上在開發專案時,大家都知道需求會隨著業務一直改變,這時候就會有機會修改程式碼,而有好的架構會讓程式碼好維護,相信這是開發人員所追求的,這本書就是介紹 Python 常用的設計模式 (Design Pattern) 及設計原則

    [Python教學]Python字串實用技巧

    Photo by Sincerely Media on Unsplash 在 Python變數與資料型態 文章中,說明到字串的表示法為文字前後加上單引號或雙引號,使用單引號或雙引號依個人喜好選擇,大部分習慣上使用雙引號。本篇將介紹 Python String( 字串 ) 資料型態的基本用法,包含字串的合併、格式化、裁切及常用的內建方法 (Built-in function) 。 一、字串連接 (String concatenating) 首先,如果要將兩個字串連接起來,在 Python 中使用  +  號,如下所示: 二、字串格式化 (String formatting) 在 Python3 中,提供了簡潔的字串格式化語法,來達到跟上面範例相同的效果。使用方式就是在字串的前方加上 f 或 F 前綴字,接著在 {} 符號中,傳入變數或運算式, Python 會將 {} 中的變數資料或運算結果帶出來。 三、字串裁切 (String slicing) 字串裁切就是基於原字串取出想要的部分,像是想存取字串中特定位置的字元,在 Python 中使用 [] 符號,並傳入索引值。特別注意索引值由 0 開始計算。 如果想從字串的最後一個字母開始存取,則索引值由 -1 開始計算。 以上範例皆為取得單一字母。取得部分字串的方式,則使用  [:]  符號,分別傳入起始索引值及結束索引值 ( 輸出結果不包含結束索引位置的字母 ) ,如下範例: 結束索引值沒輸入的話,代表從起始索引值開始至字串的最後。 相反的,起始索引未輸入, Python 預設會填入 0 。 起始索引值及結束索引值皆不輸入,就相當於複製原字串的意思。 四、常用的字串內建方法 (Built-in function) 什麼是方法 (function) 呢?簡單來說,就是封裝了專們執行某項任務的可重複使用程式碼。舉例來說,洗衣機包含了很多顆功能按鈕,一顆按鈕就是代表一個功能 (function) ,專門執行某項任務(例如:脫水)。本篇就來介紹幾個 Python 字串資料型態常用的內建方法 (Built-in function) 。 1.    upper(): 將字串轉為大寫字母。 2

    Visual Studio Code Python環境建置

    在 完成 Python安裝 後,接下來就需要選擇一個開發工具來撰寫程式碼,目前市面上的開發工具有很多,像是 Sublime 、 Visual Studio Code 、 Atom 、 PyCharm 等,各自都有其優點,沒有哪一個工具一定最好,只要依照個人喜好進行選擇就可以了。本篇就以 Windows 平台為例,介紹如何在 Visual Studio Code( 簡稱 VSCode) 中建置 Python 的開發環境。為什麼會推薦使用 VSCode 呢 ? 除了它是一個較輕量的開發工具以外,它還具有以下的特點。 一、 VSCode 特色 1.   Intellisense( 智慧語法提示 ) 於撰寫程式碼時, VSCode 會提示此物件能使用的各種屬性 (Property) 及方法 (Method) ,並且會顯示該方法的簡要說明及回傳的型別。點選需要的方法後,自動完成,無須逐字 Key 完所有的字母,大幅提高撰寫程式碼的效率。 2.   Debugging( 偵錯功能 ) VSCode 擁有出色的偵錯功能,能將中斷點下在可能出問題的程式碼列,並於偵錯模式中,逐步的執行程式碼,左欄視窗會依據執行的過程顯示各個變數目前的數值,減少開發人員除錯的時間。 3.   Bult-in Git( 內建 Git) VSCode 內建 Git 原生的功能,包含常用的如 Pull 、 Push 、 Commit 及不同版本程式碼的異動比較等,讓我們在程式撰寫的過程中,易於進行版本控管。 4.   Code Formatting( 程式碼排版 ) 在稍後教大家安裝 Python 套件後, VSCode 會在儲存的時候,依據 Python 官方的程式碼撰寫風格原則 ( PEP8 - Style Gide for Python Code ) 自動幫我們排版程式碼,提高程式碼的可讀性。 5.   Linting( 程式碼檢查 ) 同樣的安裝完 Python 套件後, VSCode 的 Linting 功能在我們撰寫程式的過程中,分析我們的程式碼,只要有語法上的錯誤,即會顯示紅色的線條,並在下方的 PROBLEMS 頁籤中,提示錯誤的原因。 6.   Extensions( 擴充套件 )

    [Pandas教學]5個實用的Pandas讀取Excel檔案資料技巧

    Photo by LinkedIn Sales Navigator on Unsplash 日常生活中,不免俗的都會有需要整理大量資料的需求,而最常用的文書軟體就是Excel,這時候該如何有效讀取Excel檔中的資料,進行額外的整理及操作呢? 本文將以 政府開放資料平台-歷年國內主要觀光遊憩據點遊客人數月別統計 的資料內容為例, 利用Python的Pandas套件,來和大家分享實務上最常見的Excel讀取操作,藉此來提升資料處理的效率。