作者busystudent (busystudent)
看板Python
標題[討論] 關於多執行緒爬蟲的觀念與問題
時間Mon Apr 25 19:17:42 2016
hi 最近幾天都在板上詢問爬蟲的問題,很感謝大家的指點,想再多問一點延伸的問題,關於多執行緒爬蟲的觀念。
我這幾天爬蟲下來,覺得我的程式碼除了沒用使用函式外,執行的效率真得不夠好,我要抓的網頁都超過1000個,執行下來時間與效率都不佳。
上stackoverflow發現有介紹多執行緒,感覺這是不錯的解決方法,想跟大家打聽哪裡有適合初學者的相關知識可以查詢,我這幾天找尋下來的結果,總感覺有一定的門檻在。
另外很好奇多執行緒可以用於我的程式碼嗎?像是我有這種
links = ['
http://www.diigo.com/user/tony_swann/' + x for x in tag_list]
組合式的式子
stackoverflow上關於多執行緒的文
http://goo.gl/iYi8lJ
--
Sent from my Windows
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.172.95.247
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1461583065.A.2C5.html
※ 編輯: busystudent (1.172.95.247), 04/25/2016 20:36:27
→ Neisseria: 慢慢爬比較好,爬太兇有可能被防火牆擋 04/25 20:36
→ busystudent: 同意,我被擋好幾次,只好設定隨機1秒或5秒 04/25 20:57
→ MOONY135: 端看你想幹嘛 有必要做到每次都要全部都重抓嗎 04/25 23:22
→ MOONY135: EX 爬二手交易版只需要每天UPDATE一天的量就好了 04/25 23:23
→ MOONY135: 全部都要重抓當然很花時間 有沒有不需要重抓的部分 04/25 23:23
→ MOONY135: 每次抓都會有的東西 那不如直接存在資料庫裡 04/25 23:24
→ Neisseria: 同意 M 大的看法,同樣的東西不需要一直重覆抓 04/26 08:40
→ busystudent: 了解,看來我有不少地方可以修改 04/26 14:13
推 aaa7513231: scrapy 用這就可以跑多網頁爬蟲了 04/26 23:42
→ busystudent: 有聽過scrapy下次來試試 04/27 00:22
推 tommy87166: 用thread會有全局鎖的瓶頸,可以用multiprocessing 05/01 04:52
→ tommy87166: 的process pool來跑 05/01 04:52