看板 Python 關於我們 聯絡資訊
大家好, 第一次嘗試寫爬蟲 目前成功從資料庫抓取之後要真正爬蟲的連結, ------------------------------------------------------------------------ urls = ['http://www.fishbase.org/Topic/List.php?group=9&start=0', 'http://www.fishbase.org/Topic/List.php?group=9&start=500', 'http://www.fishbase.org/Topic/List.php?group=9&start=1000'] f = open("link.csv","w", newline='') data = [] for url in urls: web_data = requests.get(url) soup = BeautifulSoup(web_data.text, 'html.parser') splink = soup.find('table') for alink in splink.find_all('a'): data = [alink.get('href')] w = csv.writer(f, delimiter="\t") w.writerows(data) f.close() -------------------------------------------------------------------------- 但是要把連結write成csv後,連結網址每個字被分開在不同col, https://imgur.com/a/5x8Rf 後來google到, 在csv.writer()裡加入 delimiter="\t",寫到CSV 連結的字元就不會分開, 但是把連結複製貼到記事本,其實字元還是被分開 https://imgur.com/a/iTFnJ 所以把匯入同一個CSV檔在用python打開,連結就會變成 https://imgur.com/a/2Nl1A 請問該怎樣才能把讓每個連結是一個字串? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.70.50 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1517207197.A.A86.html ※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:35:29
ckc1ark: w.writerow(data) 就好? 01/29 14:42
WOW~~我把w.writerows(data) 改成 w.writerow(data), 問題就解決了@@ 太神奇了~~~大感謝~~~ ※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:47:28