跳到主要內容

[Python爬蟲教學]輕鬆學會Python網頁爬蟲與MySQL資料庫的整合方式

python_scraper_integrate_with_mysql
本文內容於2021/11/21更新
在數據爆炸的時代,想要透過資料分析來取得其中有價值的資訊,就需要先獲取大量的資料,並且有效的儲存起來,如此才能夠進行多樣化的應用。而網頁則是最常見的資料蒐集管道,通常會利用API、Open Data(開放資料)或Python網頁爬蟲等技術來進行取得,那又該如何把這些資料儲存起來呢?

本文將以Yahoo奇摩股市為例,分享如何利用Python網頁爬蟲取得關注的股票資料後,存入MySQL資料庫中,讓後續能夠進行資料分析使用。其中的重點包含:
  • Yahoo奇摩股市網頁分析
  • 建置Python網頁爬蟲
  • 建立MySQL資料庫
  • 建立MySQL資料表
  • 存入爬取的網頁資料

一、Yahoo奇摩股市網頁分析

在進行Python網頁爬蟲開發前,首先來分析一下所要爬取的Yahoo股市網頁結構。前往Yahoo奇摩官方網站,在左側的地方可以看到「股市」的選項,如下圖:
python_scraper_integrate_with_mysql
進入Yahoo奇摩股市後,在上方即可看到股票查詢的功能,可以點擊右方的「台股代號查詢」,這時候會跳出一個小視窗,來選擇關注的股票,如下圖:
python_scraper_integrate_with_mysql
假設,選擇「2451創建」,則會顯示出當日的行情資料,如下圖:
python_scraper_integrate_with_mysql
在這個網頁中,有幾個部份是等一下開發Python網頁爬蟲時,所要取得的資料,分別是「公司名稱」、「資料時間」及「當日行情資料」,如下圖紅框:
瞭解想要爬取的目標資料後,在一般情況下,用戶通常會關注一支以上的股票,如果要透過Python網頁爬蟲來自動化取得資料的話,該如何切換到另一支股票呢?

這時候可以看到上方的網址,最後都會帶有股票代號的參數,如下圖:
python_scraper_integrate_with_mysql
所以,Python網頁爬蟲只要替換這個股票代號,即可爬取不同股票當日行情資料。

二、建置Python網頁爬蟲

Yahoo奇摩股市網頁分析好後,接下來就可以進行Python網頁爬蟲的開發,其中本文使用物件導向的設計,詳細的觀念可以參考[Python物件導向]淺談Python類別(Class)文章。

首先,利用以下的指令來安裝Python網頁爬蟲開發時所需的套件
$ pip install beautifulsoup4

$ pip install requests

$ pip install lxml
其中lxmlBeautifulSoup所支援的HTML解析器,執行速度較快且擁有較佳的容錯能力。

開啟開發工具,本文以Visual Studio Code為例,建立scraper.py檔案,引用beautifulsouprequests模組(Module),如下範例
from bs4 import BeautifulSoup
import requests
接著,建立一個股票類別(Stock),其中包含建構式(Constructor)及爬取(Scrape)方法(Method),如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self):
        pass

    #爬取
    def scrape(self):
pass
由於在初始化股票(Stock)物件時,想要讓用戶能夠傳入多個股票代碼,以便可以利用Python網頁爬蟲取得不同股票的當日行情資料,所以,在建構式(Constructor)的地方使用*args參數,將傳入的多個股票代碼打包成一個元組(Tuple),詳細的用法觀念可以參考[Python教學]5個必知的Python Function觀念整理,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
        print(self.stock_numbers)

    #爬取
    def scrape(self):
        pass

stock = Stock("2451","2454")  #建立Stock物件
執行結果
('2451', '2454')
範例中,在股票(Stock)物件初始化時,傳入兩個股票代碼,使用*args參數後,就會打包成元組(Tuple),這樣在等一下開發Python網頁爬蟲時,就能夠透過迴圈的方式,讀取元組(Tuple)中的股票代碼,取得對應的當日行情資料。

接下來,在scrape()方法(Method)中,利用requests套件發送GET請求到Yahoo奇摩股市2451創建」當日行情網頁,取得回傳結果(原始碼)後,使用lxml解析器來建立BeautifulSoup物件,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, "lxml")
有了網頁原始碼的回傳結果,就可以先來爬取「公司名稱」及「資料時間」,在網頁上點擊右鍵,選擇檢查,即可看到HTML原始碼,如下圖:
python_scraper_integrate_with_mysql
從上圖可以看到,分別利用「公司名稱」<h1>標籤、「資料時間」的<span>標籤,以及各自的樣式類別(class),即可進行元素的定位,再透過BeautifulSoup套件的getText()方法就可以取得其中的資料,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText()
其中,由於「資料時間」文字是多餘的,這時候就可以使用Pythonreplace()方法(Method),將這個文字去掉,再利用字串的裁切語法,分別取得「日期」及「時間」資料,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	market_date = stock_date[0:10]  #日期
	market_time = stock_date[11:16]  #時間
「當日行情資料」比照同樣的方式,可以看到如下圖的HTML原始碼:
python_scraper_integrate_with_mysql
首先利用<ul>標籤及它的樣式類別(class),透過BeautifulSoup套件的find()方法,取得「當日行情資料」清單如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	market_date = stock_date[0:10]  #日期
	market_time = stock_date[11:16]  #時間
	
	ul = soup.find('ul', {'class': 'D(f) Fld(c) Flw(w) H(192px) Mx(-10px)'})
定位到「當日行情資料」清單後,就可以再利用find_all()方法(Method)取得底下的所有項目(li),如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	market_date = stock_date[0:10]  #日期
	market_time = stock_date[11:16]  #時間
	
	ul = soup.find('ul', {'class': 'D(f) Fld(c) Flw(w) H(192px) Mx(-10px)'})
	
	items = ul.find_all('li', {
                'class': 'price-detail-item H(32px) Mx(10px) D(f) Jc(sb) Ai(c) Bxz(bb) Px(0px) Py(4px) Bdbs(s) Bdbc($bd-primary-divider) Bdbw(1px)'})
接著,就可以利用PythonComprehension語法,讀取每一個項目(li)下的第2<span>標籤資料值,並且存放在元組(Tuple)中,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	market_date = stock_date[0:10]  #日期
	market_time = stock_date[11:16]  #時間
	
	ul = soup.find('ul', {'class': 'D(f) Fld(c) Flw(w) H(192px) Mx(-10px)'})
	
	items = ul.find_all('li', {
                'class': 'price-detail-item H(32px) Mx(10px) D(f) Jc(sb) Ai(c) Bxz(bb) Px(0px) Py(4px) Bdbs(s) Bdbc($bd-primary-divider) Bdbw(1px)'})
				
	data = tuple(item.find_all('span')[1].getText() for item in items)
這時候,就可以依需求,將剛剛所爬到的「日期」、「公司名稱」「時間」「當日行情資料」打包成一個元組(Tuple),讓後續能夠順利寫入資料庫中,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	response = requests.get("https://tw.stock.yahoo.com/quote/2451")
	soup = BeautifulSoup(response.text, 'lxml')

	stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
	
	stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	market_date = stock_date[0:10]  #日期
	market_time = stock_date[11:16]  #時間
	
	ul = soup.find('ul', {'class': 'D(f) Fld(c) Flw(w) H(192px) Mx(-10px)'})
	
	items = ul.find_all('li', {
                'class': 'price-detail-item H(32px) Mx(10px) D(f) Jc(sb) Ai(c) Bxz(bb) Px(0px) Py(4px) Bdbs(s) Bdbc($bd-primary-divider) Bdbw(1px)'})
				
	data = tuple(item.find_all('span')[1].getText() for item in items)
	
	(market_date, stock_name, market_time) + data
到目前為止,都只是爬取一支股票的資料,當有多支股票時,就需要透過迴圈來重覆執行,並且使用串列(List),將每一支股票的爬取結果元組(Tuple)打包起來,如下範例
from bs4 import BeautifulSoup
import requests


class Stock:
    #建構式
    def __init__(self, *stock_numbers):
        self.stock_numbers = stock_numbers
    
    #爬取
    def scrape(self):
	
	result = list()  # 最終結果

        for stock_number in self.stock_numbers:
		
	    response = requests.get(f"https://tw.stock.yahoo.com/quote/{stock_number}")
	    soup = BeautifulSoup(response.text, 'lxml')

	    stock_name = soup.find('h1', {'class': 'C($c-link-text) Fw(b) Fz(24px) Mend(8px)'}).getText()
			
	    stock_date = soup.find('span', {'class': 'C(#6e7780) Fz(14px) As(c)'}).getText().replace('資料時間:', '')

	    market_date = stock_date[0:10]  #日期
	    market_time = stock_date[11:16]  #時間
			
	    ul = soup.find('ul', {'class': 'D(f) Fld(c) Flw(w) H(192px) Mx(-10px)'})
			
	    items = ul.find_all('li', {
		    'class': 'price-detail-item H(32px) Mx(10px) D(f) Jc(sb) Ai(c) Bxz(bb) Px(0px) Py(4px) Bdbs(s) Bdbc($bd-primary-divider) Bdbw(1px)'})
						
	    data = tuple(item.find_all('span')[1].getText() for item in items)
			
	    result.append((market_date, stock_name, market_time) + data)
        return result
		
		
stock = Stock('2451', '2454')  #建立Stock物件
print(stock.scrape())  #印出爬取結果
執行結果
[
  ('2021/11/19', '創見', '14:30', '71.1', '71.8', '72.3', '70.9', '71.7', '1.30', '70.6', '0.71%', '0.5', '1,811', '689', '1.98%'),
  ('2021/11/19', '聯發科', '14:30', '1,090', '1,115', '1,120', '1,060', '1,089', '108.37', '1,085', '0.46%', '5', '9,952', '12,474', '5.53%')
]
特別注意範例中的第17行,網址的最後需搭配迴圈替換初始化的股票代碼。

三、建立MySQL資料庫

Python網頁爬蟲開發完成後,接下來,就要準備MySQL資料庫,來儲存爬取的股票「當日行情資料」

MySQL資料庫的安裝方式可以參考[Python實戰應用]掌握Python連結MySQL資料庫的重要操作文章的第二節。

安裝完成後,開啟MySQL Workbench資料庫管理工具,可以在Windows作業系統上,利用「開始」的搜尋功能,輸入關鍵字來進行開啟,如下圖:
python_scraper_integrate_with_mysql
點擊左下角的本地端伺服器,輸入安裝時所設定的密碼,即可登入。接下來,就可以建立Python網頁爬蟲所需的資料庫,如下圖:
python_scraper_integrate_with_mysql
填入資料庫名稱及設定utf8字元集,點擊右下角的「Apply」即可,如下圖:
python_scraper_integrate_with_mysql

四、建立MySQL資料表

在建立的資料庫(stock)下,點擊「Table(資料表)」右鍵,選擇「Create Table」,如下圖:
python_scraper_integrate_with_mysql
填入資料表名稱(Table Name)、設定utf8字元集與建立欄位,如下圖:
python_scraper_integrate_with_mysql
其中,market_date(資料日期)及stock_name(公司名稱)需設定為主鍵(Primary Key)。完成後同樣點擊右下角的「Apply」按鈕即可。

五、存入爬取的網頁資料

MySQL資料庫準備好後,現在就可以儲存Python網頁爬蟲所取得的資料,而要讓Python應用程式能夠與MySQL資料庫連接,需要安裝pymysql套件,可以利用以下的指令來安裝:
$ pip install pymysql
開啟scraper.py檔案,引用pymysql套件,並且新增一個save()方法(Method),含有股票資料的參數(stocks),如下範例
import pymysql


def save(self, stocks):
接著,在save()方法(Method)裡面設定MySQL資料庫的連線資訊,如下範例
import pymysql


def save(self, stocks):

    db_settings = {
        "host": "127.0.0.1",
        "port": 3306,
        "user": "root",
        "password": "******",
        "db": "stock",
        "charset": "utf8"
    }
有了連線的資訊,就可以透過pymysql套件的connect()方法(Method)來進行連接,如下範例
import pymysql


def save(self, stocks):

    db_settings = {
        "host": "127.0.0.1",
        "port": 3306,
        "user": "root",
        "password": "******",
        "db": "stock",
        "charset": "utf8"
    }
	
    try:
        conn = pymysql.connect(**db_settings)

    except Exception as ex:
        print("Exception:", ex)
而要進行資料庫的操作,就需要有cursor物件,才能夠執行MySQL新增資料指令,如下範例
import pymysql


def save(self, stocks):

    db_settings = {
	"host": "127.0.0.1",
	"port": 3306,
	"user": "root",
	"password": "******",
	"db": "stock",
	"charset": "utf8"
    }

    try:
	conn = pymysql.connect(**db_settings)

	with conn.cursor() as cursor:
	    sql = """INSERT INTO market(
                        market_date,
                        stock_name,
                        market_time,
                        final_price,
                        opening_price,
                        highest_price,
                        lowest_price,
                        average_price,
                        transaction_value,
                        yesterday_price,
                        quote_change,
                        ups_and_downs,
                        total_volume,
                        yesterday_volume,
                        amplitude)
                     VALUES(%s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s)"""

	    for stock in stocks:
                cursor.execute(sql, stock)
            conn.commit()

    except Exception as ex:
	print("Exception:", ex)
範例中,第18行使用with陳述式,在資料庫操作完成後,會自動釋放連線的資源。另外,37透過Python迴圈,讀取傳入的股票資料串列(stocks),將每一支股票資料傳入MySQL的新增資料指令(sql)中,最後,利用commit()方法(Method)進行儲存。

完成資料庫的存入方法(save)後,現在,建立一個股票(Stock)物件,傳入兩個公司的股票代碼來進行初始化,接著,呼叫scrape()方法(Method)爬取Yahoo奇摩股市「當日行情資料」,將回傳的串列(List)結果傳入save()方法(Method),來存入MySQL資料庫中,如下範例
stock = Stock('2451', '2454')  #建立Stock物件
stock.save(stock.scrape())  #將爬取的結果存入MySQL資料庫中
截取部分執行結果
python_scraper_integrate_with_mysql

六、小結

透過本文的實際範例教學,瞭解如何將Python網頁爬蟲所取得的資料有效存入MySQL資料庫中,後續即可利用這些資料來進行分析、圖形化或提供預測的服務等,詳細的程式碼可以參考以下的GitHub網址。另外,您有關注的股票嗎?利用本文的教學來開發一個Python網頁爬蟲,自動化取得股票資料吧

如果您喜歡我的文章,請幫我按五下Like(使用GoogleFacebook帳號免費註冊),支持我創作教學文章,回饋由LikeCoin基金會出資,完全不會花到錢,感謝大家。

有想要看的教學內容嗎?歡迎利用以下的Google表單讓我知道,將有機會成為教學文章,分享給大家😊

Python學習資源
Python網頁爬蟲推薦課程
    Python網頁爬蟲-BeautifulSoup教學
    Python網頁爬蟲-Selenium教學
    Python非同步網頁爬蟲
    Python網頁爬蟲應用
    Python網頁爬蟲技巧

    參考資料
    本書的教學方式非常的基礎和直覺,沒有過多的變化應用,所以適合想要入門學習Python網頁爬蟲的讀者,並且約有20個網站的爬取範例,可以拿來參考。其中,除了包含常見的BeautifulSoup、SeleniumScrapy教學外,也有各種檔案類型及Pandas模組的使用方式。

    本文即是參考書中的Yahoo奇摩股市範例,加以改寫成實務上的小專案,整合MySQL資料庫,儲存Python網頁爬蟲所取得的資料。









    留言

    1. 謝謝版主分享的教學文,很棒的。

      回覆刪除
    2. 感謝版主分享教學,
      請問"特別注意範例中的第18行,網址的最後參數需搭配迴圈替換初始化的股票代碼。"
      我可以在哪邊學習?
      謝謝

      回覆刪除
      回覆
      1. CHUN您好:
        其實第18行的部分就是兩個字串的連接,可以參考以下兩篇文章:
        1. https://www.learncodewithmike.com/2019/11/python4-python.html
        2. https://www.learncodewithmike.com/2019/12/python.html
        希望有幫助到您 :)

        刪除
    3. 謝謝老師的分享
      請問:如果我有股票代碼清單(txt or xlsx)要怎麼讓這些代碼填入stock = Stock('代碼1','代碼2')
      謝謝!

      回覆刪除
      回覆
      1. Ear您好:
        讀取Excel檔案中的資料可以參考以下的文章:
        https://www.learncodewithmike.com/2020/12/read-excel-file-using-pandas.html

        希望對您有所幫助,感謝您的提問唷 :)

        刪除
    4. 你好請問一下
      執行結果
      ('2451', '2454')
      這邊是怎麼執行的?
      因為我是用Django, 我是寫在自己建立的app裡面,views.py的裡面

      回覆刪除
      回覆
      1. 您好,如果在Django專案中,可以將本文的Stock類別寫在獨立的檔案(ex:scraper.py),接著,在views.py檔案中進行引用,就可以呼叫以下兩行:
        stock = Stock('2451', '2454') #建立Stock物件
        stock.save(stock.scrape()) #將爬取的結果存入MySQL資料庫中

        可以參考我的https://www.learncodewithmike.com/2020/10/django-web-scraping.html文章,結合Django網站與Python網頁爬蟲的實作,希望對您有幫助,感謝您的提問 :)

        刪除
    5. 你好,請問如何把爬取到的資料,用應用程式做出互動式介面顯示出來(如同隨身營業員的圖表介面)

      回覆刪除
      回覆
      1. 您好,這個可能就會牽扯到手機APP的開發,大致上的開發邏輯有以下兩種:

        1.在開發手機APP時,將APP讀取的資料庫,連接至爬蟲所存入的資料庫,即可在APP上顯示網頁爬蟲所爬取的資料,不過,這個方法就會有時間差,因為APP是讀取資料庫中的資料。

        2.直接在手機APP中,整合網頁爬蟲,即時顯示所爬取的資料。

        建議您可能需要survey一下手機APP的開發教學,然後再將網頁爬蟲整合進去,即可達成 :)

        刪除
    6. Exception: (1054, "Unknown column 'highest_price' in 'field list'"←出現錯誤
      在網路上找了許多方法,改了幾次還是無法成功...想請問應該如何改正

      回覆刪除
      回覆
      1. 您好,確認一下SQL指令的INSERT語法中,highest_price是否有拼錯,以及MySQL的market資料表是否有定義highest_price欄位?

        刪除
    7. 您好,請問股票的數字該怎麼變成讀取自己輸入的值呢?
      例如:輸入2303
      執行stock=Stock('2303')

      回覆刪除
      回覆
      1. 您好,可以使用Python內建的input()方法(Method),來取得在Terminal視窗中所輸入的值,如下範例:
        stock_number = input("請輸入股票代碼: ")
        stock = Stock(stock_number)

        更詳細的用法教學可以參考以下文章第四節的第7個input()方法(Method):
        https://www.learncodewithmike.com/2019/11/python4-python.html

        刪除
    8. 作者已經移除這則留言。

      回覆刪除
    9. 不好意思我依照您的教學 在執行code時出現 Exception: Cursor closed
      MySQL資料庫也沒有更新

      回覆刪除
    10. 請問要如何在vscode用python連接mysql呢?

      回覆刪除
    11. 發生例外狀況: AttributeError
      'NoneType' object has no attribute 'find_all'
      File "D:\Python\scraper.py", line 34, in scrape
      items = ul.find_all('li', {
      File "D:\Python\scraper.py", line 44, in
      print(stock.scrape()) # 印出爬取結果
      出了問題無法出現爬取出的結果

      回覆刪除
    12. 老師,您好,我試著按照您的語法寫在PyCharm裡頭,不過現在卡在您語法中的第20行,每次執行時都會出現 AttributeError: 'NoneType' object has no attribute 'getText',我找遍資料但仍然不知道該如何解決這個問題...希望您可以解惑,謝謝!

      回覆刪除
      回覆
      1. 問完問題後又好好看了一遍,我終於發現我的錯誤了!謝謝~!

        刪除

    張貼留言

    這個網誌中的熱門文章

    [Pandas教學]資料分析必懂的Pandas DataFrame處理雙維度資料方法

    Photo by Slidebean on Unsplash 現在有許多的企業或商家,都會利用取得的使用者資料來進行分析,瞭解其中的趨勢或商機,由此可見,資料分析越來越受到重視,而這時候,能夠懂得使用資料分析工具就非常的重要。 在上一篇 [Pandas教學]資料分析必懂的Pandas Series處理單維度資料方法 文章中,分享了Pandas Series資料結構用於處理單維度資料集的實用方法,而本文則要來介紹Pandas套件的另一個非常重要的資料結構,也就是 DataFrame。

    [Python教學]搞懂5個Python迴圈常見用法

    Photo by Scott Webb on Unsplash 在撰寫程式的過程中,都有機會要重複執行一些相同的運算,但是重複撰寫好幾次同樣的運算看起來非常的沒有效率,所以在這個情況下我們通常會使用迴圈來幫我們完成,本篇就來介紹 Python 迴圈的使用方式,包含 For-Loops 、 Nested Loops 及 while-Loops ,並且說明用來控制迴圈流程的 break 及 continue 指令。 一、 range() 方法 在開始介紹 Python 迴圈之前,先來說明一個在執行迴圈時常用的 range() 方法,主要用來幫我們產生數列,語法如下: range( 起始值 , 結束值 , 遞增 ( 減 ) 值 ) 使用說明: range(20) :起始值預設從 0 開始,所以會產生 0 到 19 的整數序列。 range(10,20) :起始值從 10 開始,所以會產生 10 到 19 的整數序列。 range(10,20,3) :起始值從 10 開始,遞增值為 3 ,所以會產生 10,13,16,19的整數序列 。 二、 Python For-Loops 敘述 可以針對 Iterable( 可疊代的 ) 物件來進行讀取, Python 內建幾個常用的 Iterable 物件,像是 String( 字串 ) 、 List( 串列 ) 、 Tuples( 元組 ) 、 Dictionary( 字典 ) 等,往後會出文章詳細的介紹。 Python for-loop 的語法如下: 在語法中, in 的後方就是 for-loop 要讀取的目標物,這個目標物的為 Iterable ( 可疊代的 ) 物件,一次讀取一個元素,然後用 item( 自訂變數名稱 ) 來接收每次讀取到的元素,執行區塊中的運算。注意 for-loop 的結尾需加上冒號 ( : ) 及區塊中的運算式要有相同的縮排,範例如下: 在範例中, for-loop 的讀取目標物為一個字串,每一次讀取一個字母,並且用 letter 變數來接收,執行 print() 方法。 三、 Python Nested Loops ( 巢狀迴圈 ) 簡單來說,就是迴圈中又有一層迴圈,我們來看一個範例:   這個巢狀迴

    [Python物件導向]淺談Python類別(Class)

    Photo by Bram Naus on Unsplash 在學習程式語言時,或多或少都有聽過物件導向程式設計 (Object-oriented programming ,簡稱 OOP) ,它是一個具有物件 (Object) 概念的開發方式,能夠提高軟體的重用性、擴充性及維護性,在開發大型的應用程式時更是被廣為使用,所以在現今多數的程式語言都有此種開發方式, Python 當然也不例外。而要使用物件導向程式設計就必須對類別 (Class) 及物件 (Object) 等有一些基本的了解,包含了: 類別 (Class) 物件 (Object) 屬性 (Attribute) 建構式 (Constructor) 方法 (Method) 我們先來看一下今天要來建立的類別: # 汽車類別 class Cars: # 建構式 def __init__(self, color, seat): self.color = color # 顏色屬性 self.seat = seat # 座位屬性 # 方法(Method) def drive(self): print(f"My car is {self.color} and {self.seat} seats.") 接下來就針對類別 (Class) 各個部分來進行介紹。 一、類別 (Class) 簡單來說,就是物件 (Object) 的藍圖 (blueprint) 。就像要生產一部汽車時,都會有設計圖,藉此可以知道此類汽車會有哪些特性及功能,類別 (Class) 就類似設計圖,會定義未來產生物件 (Object) 時所擁有的屬性 (Attribute) 及方法 (Method) 。而定義類別的語法如下: class classname:   statement 首先會有 class 關鍵字,接著自定類別名稱,最後加上冒號。類別名稱的命名原則習慣上使用 Pascal 命名法,也就是每個單字字首大寫,不得使用空白或底線分隔單字,如下範例: #範例一 class Cars: #範例二 class MyCars: 二、物件 (Object) 就是透過

    [Python爬蟲教學]7個Python使用BeautifulSoup開發網頁爬蟲的實用技巧

    Photo by Stanley Dai on Unsplash 在實務上開發專案時,很多時候會利用其他網站的資料來進行分析或運用,而取得的方式除了透過網站所提供的 API(Application Programming Interface) 外,也可以利用 Python 來開發爬蟲程式,將網頁的 HTML 內容下載下來,接著利用 BeautifulSoup 套件 (Package) ,擷取所需的資訊。 本文將開發一個簡單的爬蟲程式,爬取「 ETtoday 旅遊雲 」網頁,擷取桃園旅遊景點的標題資訊,如下圖: 取自ETtoday 的旅遊雲 而在開發的過程中,常會需要搜尋 HTML 的節點,本文將分享幾個常用的方法,包含: BeautifulSoup 安裝 以 HTML 標籤及屬性搜尋節點 以 CSS 屬性搜尋節點 搜尋父節點 搜尋前、後節點 取得屬性值 取得連結文字 一、 BeautifulSoup 安裝 BeautifulSoup 是一個用來解析 HTML 結構的 Python 套件 (Package) , 將取回的網頁 HTML 結構, 透過其提供的方法 (Method) ,能夠輕鬆的搜尋及擷取網頁上所需的資料,因此廣泛的 應用在網頁爬蟲的開發上 。 Beautifulsoup 套件 (Package) 可以透過 pip 指令來進行安裝,如下範例: pip install beautifulsoup4 而要解析網頁的 HTML 程式碼前,還需要安裝 Python 的 requests 套件 (Package) ,將要爬取的網頁 HTML 程式碼取回來,安裝方式如下: pip install requests 安裝完成後,首先引用 requests 套件 (Package) ,並且 透過 get() 方法 (Method) 存取 ETtoday 旅遊雲的桃園景點網址,如下範例: import requests response = requests.get( "https://travel.ettoday.net/category/%E6%A1%83%E5%9C%92/") 將網頁的 HTML 程式碼取回來後,接著引用 BeautifulSoup

    [Python教學]5個必知的Python Function觀念整理

    Photo by Susan Holt Simpson on Unsplash 在寫程式碼時有一個非常重要的觀念是 DRY(Don’t Repeat Yourself) ,意思是避免 同樣的程式碼重複出現在很多個地方, 除了可讀性很低外,也不易維護。所以 要適當的進行封裝,來達到程式碼的重用性 (Reusable) 。 今天要來教大家如何建構自己的   Python 函式 (Function) ,就是能夠讓你的程式碼被重複的使用 (Reusable) ,並且提高維護性 及可讀性。其中有五個必須要知道的重要觀念, 包含了: 函式 (Function) 結構 函式(Function) 參數 函式(Function) *args 、 **kwargs 運算子 函式(Function) 種類 函式(Function) 變數範圍 (Scope) 一、函式 (Function) 結構 首先Python 函式 的結構包含了 def 關鍵字、 函式 名稱、參數及實作內容,如下範例: 函式 名稱的命名習慣上會使用小寫字母,並且以底線來分隔單字。參數用來接收外部資料,而實作的內容則是這個 函式 所要執行的任務,需注意縮排。接下來就針對 函式 的各個部分進行詳細的說明。 二、 函式(Function) 參數 參數簡單來說就是接收外部所傳來的資料,進而執行相關的邏輯運算。參數個數取決於 函式 內部運算時所需的資料個數,所以在一般情況下,呼叫 函式 時一定要傳入相對的參數個數資料,否則就會出現例外錯誤,如下範例: 函式 的參數,又可分為: 關鍵字參數 (Keyword Argument) : 呼叫函式時,在傳入參數值的前面加上函式所定義的參數名稱,如下範例。除了提高可讀性外,也可將此種參數打包成 字典 (Dictionary) 資料型態,在等一下的 xargs 、 xxargs 運算子部分會來進行說明。 預設值參數 (Default Argument) : 在函式定義的參數中,將可以選擇性傳入的參數設定一個預設值,當來源端有傳入該資料時,使用來源端的資料,沒有傳入時,則依照設定的預設值來進行運算,如下範例: 範例中沒有傳入日期參數資料,所以 函式 使用預設值 (2019

    [Pandas教學]5個實用的Pandas讀取Excel檔案資料技巧

    Photo by LinkedIn Sales Navigator on Unsplash 日常生活中,不免俗的都會有需要整理大量資料的需求,而最常用的文書軟體就是Excel,這時候該如何有效讀取Excel檔中的資料,進行額外的整理及操作呢? 本文將以 政府開放資料平台-歷年國內主要觀光遊憩據點遊客人數月別統計 的資料內容為例, 利用Python的Pandas套件,來和大家分享實務上最常見的Excel讀取操作,藉此來提升資料處理的效率。

    [Python教學]Python Lambda Function應用技巧分享

    Photo by Fatos Bytyqi on Unsplash Lambda 函式,也就是匿名函式,不需要定義名稱,只有一行運算式,語法非常簡潔,功能強大,所以現代程式語言如 Java、C# 及 Python 等都支援 Lambda 函式,適用於小型的運算, Python的 一些內建函式甚至使用它作為參數值的運算。現在就來介紹 如何 在 Python 中使用 Lambda 函式與技巧吧,包含: Lambda 語法與範例 Python Lambda 函式的應用 Lambda 函式 vs 一般函式 (Function) 一、 Lambda 語法與使用範例 由於 Lambda 函式只有一行程式碼,所以在撰寫時有一些限制,我們來看一下它的語法: lambda parameter_list: expression 這邊教大家一個技巧,在撰寫 Lambda 函式時,於 Visual Studio Code 輸入 lambda 關鍵字,接著按下 Tab 鍵,就會自動產生範例中的語法,包含了三個部分: lambda 關鍵字 parameter_list( 參數清單 ) expression( 運算式 ) 其中, parameter_list( 參數清單 ) 也就是 Lambda 函式的傳入參數,可以有多個,以逗號分隔。而 expression( 運算式 ) 則是針對傳入參數來進行運算,只能有一行運算式,不像 一般函式(Function) 可以有多行。接下來,我們透過幾個範例來了解如何使用 Lambda 函式吧。 範例 1 : 範例中將 Lambda 函式指派給一個變數,接著就可以透過此變數並傳入參數來進行呼叫。 範例 2 : Lambda 函式支援 IIFE(immediately invoked function expression)語法 ,意思是 利用  function expression 的方式來建立函式,並且立即執行它,語法如下 : (lambda parameter: expression)(argument) 範例中即是利用此語法在 Lambda函式 定義後,立即傳入參數執行。 範例 3 : 透過此範例可以知道,當 Lambda 函式經定義

    [Python+LINE Bot教學]6步驟快速上手LINE Bot機器人

    Photo by Yura Fresh on Unsplash 每當朋友或家人要聚餐時,是不是總要花很長的時間尋找評價不錯的餐廳?不但要確認營業時間、消費價格及地點,還要觀看許多的美食文章才有辦法決定,這時候如果有人能夠明確提供幾間符合條件且有人氣的餐廳作為選擇,想必會省事許多。 所以筆者開發了一個美食的 LINE Bot 小作品,透過對談的方式瞭解使用者所要尋找的餐廳條件後,利用 Python 網頁爬蟲取得目前正在營業的五間最高人氣餐廳資料,回覆給使用者作為參考。 為了要讓想學習的您能夠由淺入深,瞭解其中的實作過程,所以將會分成三篇文章來進行教學。 2020/06/30 補充說明 而在進行實作前,先來看一下 LINE Bot 主要的執行架構,如下圖: 使用者透過 LINE 發送訊息時, LINE Platform 將會進行接收,並且傳遞至我們所開發的 LINE Bot 執行邏輯運算後,透過 LINE 所提供的 Messaging API 回應訊息給 LINE Platform ,最後再將訊息傳遞給使用者。 其中 Messaging API(Application Programming Interface) ,就是 LINE 官方定義的 回應訊息 標準介面,包含 Text (文字)、 Sticker (貼圖)、 Video (影片)、 Audio (聲音)及 Template (樣板)訊息等,完整的說明可以參考 LINE 的 官方文件 。 所以在我們的 LINE Bot 回應訊息時,就要依據 Messaging API 定義的規範,傳入相應的參數後, Messaging API 就會回應使用者相對的訊息類型。簡單來說,就是 LINE Platform 與 LINE Bot 的溝通橋樑。 而本文就先以最基本的使用者發送什麼訊息, LINE Bot 就回應什麼訊息為例,讓讀者體會其中的運作方式,整體架構如下圖: 在 LINE Bot 的部分,使用 Django 框架來進行建置,並且透過 Messaging API 回應 Text (文字)訊息。在下一篇文章中,將會加入 Python 網頁爬蟲,取得美食網站的資訊回應給使用者。 本文的實作步驟包含: 建立 Provider 建立 Messaging API channel 設定 LINE Bot 憑證 開發 LINE B

    [Python爬蟲教學]整合Python Selenium及BeautifulSoup實現動態網頁爬蟲

    Photo by LAUREN GRAY on Unsplash 相信大家都知道,取得資料後能夠進行許多的應用,像是未來的趨勢預測、機器學習或資料分析等,而有效率的取得資料則是這些應用的首要議題,網頁爬蟲則是其中的一個方法。 網頁爬蟲就是能夠取得網頁原始碼中的元素資料技術,但是,有一些網頁較為特別,像是社群平台,需先登入後才能進行資料的爬取,或是電商網站,無需登入,但是要透過滾動捲軸,才會動態載入更多的資料,而要爬取這樣類型的網頁爬蟲,就稱為動態網頁爬蟲。 該如何實作呢? 本文將使用 Python Selenium 及 BeautifulSoup套件 來示範動態網頁爬蟲的開發過程,重點包含: BeautifualSoup vs Selenium 安裝 Selenium 及 Webdriver 安裝 BeautifulSoup Selenium get() 方法 Selenium 元素定位 Selenium send_keys() 方法 Selenium execute_script 方法 BeautifulSoup find_all() 方法 BeautifulSoup getText() 方法 一、 BeautifualSoup vs Selenium BeautifulSoup套件 相信對於 開發 網頁爬蟲的人員來說,應該都有聽過,能夠解析及取得 HTML 原始碼各個標籤的元素資料,擁有非常容易上手的方法 (Method) ,但是,對於想要爬取 動態 網頁資料來說,則無法達成,因為 BeautifulSoup套件 並沒有模擬使用者操作網頁的方法 (Method) ,像是輸入帳號密碼進行登入或滾動捲軸等,來讓網頁動態載入資料,進行爬取的動作。 所以,這時候,就可以使用被設計於自動化測試的 Selenium 套件,來模擬使用者的動作,進行登入後爬取資料或滾動卷軸,並且能夠執行 JavaScript 程式碼,這些就是 Selenium 與 BeautifulSoup套件 最大不同的地方。對於開發 Python 動態爬蟲來說,就可以結合 Selenium套件 以上的特點,讓網頁動態載入資料後,再利用 BeautifulSoup套件簡潔的 方法 (Method) ,將所需的資料爬取下來。 本文就是利用這樣的概念,利用 Selenium 套件登入 Facebook 後,前往

    [Python爬蟲教學]有效利用Python網頁爬蟲爬取免費的Proxy IP清單

    Photo by Cytonn Photography on Unsplash 在開發網頁爬蟲的過程中,是不是會擔心被偵測或封鎖,而爬不到所需的資料呢? 有些大型網站為了保護網頁上的資料不被大量的爬取,會特別偵測像Python網頁爬蟲這種非人工的自動化請求,這時候 Python網頁爬蟲 使用相同的IP來發送請求就很容易被發現。 所以,如果有多組IP能夠讓Python網頁爬蟲在發送請求時輪流使用,就能夠大幅降低被偵測的風險。 而現在有許多網站上也有提供免費的Proxy IP,本文就以 Free Proxy List 網站為例,透過Python網頁爬蟲來蒐集上面的Proxy IP,製作我們的IP清單。實作步驟包含: