推 ckc1ark: w.writerow(data) 就好? 01/29 14:42
WOW~~我把w.writerows(data) 改成 w.writerow(data),
問題就解決了@@ 太神奇了~~~大感謝~~~
※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:47:28
http://www.fishbase.org/Topic/List.php?group=9&start=0',
'http://www.fishbase.org/Topic/List.php?group=9&start=500',
'http://www.fishbase.org/Topic/List.php?group=9&start=1000']
f = open("link.csv","w", newline='')
data = []
for url in urls:
web_data = requests.get(url)
soup = BeautifulSoup(web_data.text, 'html.parser')
splink = soup.find('table')
for alink in splink.find_all('a'):
data = [alink.get('href')]
w = csv.writer(f, delimiter="\t")
w.writerows(data)
f.close()
--------------------------------------------------------------------------
但是要把連結write成csv後,連結網址每個字被分開在不同col,
https://imgur.com/a/5x8Rf
後來google到,
在csv.writer()裡加入 delimiter="\t",寫到CSV 連結的字元就不會分開,
但是把連結複製貼到記事本,其實字元還是被分開
https://imgur.com/a/iTFnJ
所以把匯入同一個CSV檔在用python打開,連結就會變成
https://imgur.com/a/2Nl1A
請問該怎樣才能把讓每個連結是一個字串? 謝謝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.70.50
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1517207197.A.A86.html
※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:35:29
大家好,
第一次嘗試寫爬蟲
目前成功從資料庫抓取之後要真正爬蟲的連結,
------------------------------------------------------------------------
urls = ['