→ kenduest: meta 那算是 html 檔案內容組成了,不是 requests 06/01 01:38
→ kenduest: 本身處理的範圍。你需要的是解析若有這段 meta 06/01 01:38
→ kenduest: 內容抓出請求的 url= 後面指定的網址 06/01 01:39
→ kenduest: 然後把抓出來的 url 丟給 requests.get 重抓內容處理 06/01 01:40
→ kenduest: 要判斷有無這類 meta 語法一般可以用 BeautifulSoup 06/01 01:41
→ kenduest: 解析找這類內容,有找到拆解找出 url 網址拿來用 06/01 01:41
→ kenduest: requests 內所謂 allow_redirects 是說一般的 http 06/01 01:42
→ kenduest: 請求對方回應 301, 302 這類回應代碼時候,依據 06/01 01:43
→ kenduest: header 內 Location 欄位指定的 url 來進行連結存取 06/01 01:43
謝謝指點!
剛剛改了一下,使用soup.find("meta")得出了其內容並擷取出URL=之後的網址,用該網址重新進行requests,但仍然是碰到相同的情況……得出的結果與首次的結果相同。
兩次均是得出:
<META HTTP-EQUIV="Refresh" CONTENT="0;
URL=/cgi-bin/gs32/gsweb.cgi/login?o=dwebmge">
問題仍然無法解決Orz
→ kenduest: 後續要登入啊 說是另外一個新的處理議題 06/01 09:31
好的,我再試試。想說一般網頁不用登入就能查詢就沒注意到了。
要開始試的同時發現登入有驗證碼,看來短時間以我的功力有點困難 Orz
※ 編輯: jakeasa123 (140.138.152.2), 06/01/2017 12:52:16
推 zerof: 試試 selenium 06/01 13:17