推 stillcolor: 是不是因為fail就關閉browser啦?資訊有點少欸~ 02/04 10:08
→ loser113: Chrome 跟頁面都在 02/04 10:28
→ loser113: 頁面是空白 02/04 10:28
推 taipoo: 你是不是觸發網頁的反爬蟲機制,且你爬的是什麼網頁呢? 02/04 12:00
→ vi000246: 我猜是樓上講的吧 過一天再試試看 02/04 13:24
推 stillcolor: 頁面都空白的話,應該不是selenium的問題吧 02/04 14:21
→ stillcolor: 直覺也是4F講的那樣 02/04 14:21
→ liton: 找個免費的爬蟲軟體批量爬看看會不會被擋 02/04 14:26
→ loser113: 反爬就不得而知 像 google 還有要你選圖 02/04 14:46
→ loser113: 因為同個網站 前一個月沒有這種問題 這個月多放個幾個 02/04 14:48
→ loser113: 帳號去爬 目前找到解法是多寫個sleep在動作 02/04 14:48
→ liton: 網站三不五時改個頁面就能搞死你了 02/04 16:42
→ koshi0413: 你一次多隻爬同一個網頁,是不是IP被偵測到 02/04 21:04
推 fiorentino: 有可能你爬的那個網頁內容就是不存在 02/04 21:53
→ fiorentino: 你打開瀏覽器直接貼上那個網址就知道是不是這個原因 02/04 21:53
→ chickengod: 有人提到可能是網頁開了新視窗 然後關了原本的 02/05 02:30
→ chickengod: 導致handle指向一個已經關閉的視窗 02/05 02:30
→ chickengod: 解法有可能是這個 02/05 02:30
→ chickengod: 指向一個新的視窗 忽略以下exception 02/05 02:30
→ chickengod: NoSuchWindowException, NoSuchElementException 02/05 02:30
今天沒有異狀
我情況是 一個console 對應一個driver 執行程式 沒有關閉網頁指令
有關閉行為 就是點裡面的連結 跑出彈跳視窗 用 find xpath 去把彈出來的視窗關閉
因為我理解是 某種原因 切斷 網頁跟程式的連結 因為網頁還在 但變成空白畫面
程式變成找不到那頁 比較像是網頁當掉 那就應該是 對方網站 OR CHROME 問題
內容我在研究一下 感謝
推 taipoo: 樓上說得也很有可能會發生的 02/05 04:36
※ 編輯: loser113 (36.230.244.130 臺灣), 02/05/2021 09:25:11
※ 編輯: loser113 (36.230.244.130 臺灣), 02/05/2021 09:27:27
推 stillcolor: 話說你空白網頁,有帶入url嗎? 02/05 14:25
→ loser113: 有 就是要爬的那頁網址 02/05 14:46
推 stillcolor: 會不會是browser memory leak就被砍掉了?我好像碰過 02/05 16:53