最新消息

[公告2014/05/30] 如有需要將部落格中,任何一篇文章的程式碼使用在商業用途,請與我聯繫。

[公告2015/04/26] Line版的 iInfo程式與投資應用 群組已上線想加入的朋友們,請先查看 "入群須知" 再與我聯繫 Line : aminwhite5168,加入請告知身分與回答 "入群須知" 的問題。

[公告2018/04/22] 台北 Python + Excel VBA 金融資訊爬蟲課程,課程如網頁內容 金融資訊爬蟲班:台北班 Python 金融資訊爬蟲、EXCEL VBA 金融資訊爬蟲

[公告2019/01/08] 請注意:我再次重申,部落格文章的程式碼,是要提供各位參考與學習,一旦網頁改版請自行修改,別要求東要求西要我主動修改,你們用我寫東西賺錢了、交差了,請問有分我一杯羹嗎?既然賺錢沒分我,請問有什麼理由要求我修改,如果沒能力改,就花錢來找我上課。

[公告2019/12/01] 若各位有 Excel VBA 案子開發需求,歡迎與我聯繫,可接案處理。

[公告2020/05/22] 頁面載入速度慢,起因為部分JS來源(alexgorbatchev.com)失效導致頁面載入變慢,目前已做調整,請多見諒。

2017年11月1日 星期三

Jupyter notebook 操作(3) --- 程式碼存檔、查詢、重新載入

在 Jupyter notebook 上,如果想將打好的程式碼輸出成 .py 給別人使用、或要載入別人給 .py,應該怎麼做呢?
將以下程式碼儲存成 Crawler.py。
import requests
from bs4 import BeautifulSoup as bs
import pandas as pd

res = requests.get("http://www.taifex.com.tw/chinese/9/9_7_1.asp")
res.encoding='utf-8'
soup = bs(res.text, "lxml")
tb = soup.select(".table_c")[0]
df = pd.read_html(tb.prettify("utf-8"), encoding="utf-8", header = 0, index_col = 0)
df[0].columns = ('ID', 'Name', 'weight', 'No1', 'ID1', 'Name1', 'weight1')
df2 = df[0][[ 'ID', 'Name', 'weight']]
df2.head(100)

輸入以下指令
%save Crawler.py 5

查詢 Crawler.py 內容。
輸入以下指令,windows 請輸入 !type、Mac、Ubuntu、Linux 請輸入 !cat
!type Crawler.py

載入 Crawler.py 內容。
輸入以下指令
%load Crawler.py

shift + enter 執行。

參考資料: