→ Hsins: import time 03/05 14:28
→ Hsins: limit_time = time.time() + TIMEOUT 03/05 14:29
→ Hsins: if time.time() > limit_time: 03/05 14:29
→ Hsins: 這作法比較簡單,也可以用 theading 的 Timer 03/05 14:31
→ Hsins: 不過等你爬蟲複雜起來再考慮吧 03/05 14:32
推 ddavid: 卡某種I/O包括網路的話,感覺都是thread出去比較好,上面 03/05 14:34
→ ddavid: 推文第一種方法用在很多小行為其實都跑很快但累積時間很久 03/05 14:35
→ ddavid: 的情況,但如果單單某個讀取動作就卡很久就不是第一種方法 03/05 14:35
→ ddavid: 能處理的了,這時就給他一個thread讓他自己去跑吧 03/05 14:36
→ ddavid: 不過代價就是複雜性變高了,有必要才用 03/05 14:37
→ alvinlin: scrapy用DOWNLOAD_TIMEOUT 設定 03/05 14:56
→ alvinlin: 然後用scrapy的errback去exception 03/05 14:58
→ IAMPF: 如果是用 requests 可以 requests.get(url,timeout=30) 03/05 16:18