→ walelile: 你的需求不用全部自己寫,有爬蟲套件scrapy 11/02 14:42
→ tonglie: 謝謝樓上再度指引!! 我真的太無知了什麼都不懂 11/02 15:15
→ tonglie: 我再研究研究該套件內容QQQQQQ 感謝感謝 11/02 15:15
→ tonglie: 謝謝N大:D! 11/02 19:34
→ MOONY135: 跟你想的不太依樣 不是存取資料庫 只是抓資料下來 11/02 20:21
→ MOONY135: 另外就是 拍賣的東西 他設定的關鍵字很不一定 11/02 20:22
→ MOONY135: 所以跟你想的東西到最後會有誤差是一定的 11/02 20:22
→ bigpigbigpig: 我是用 lxml 模組啦,還蠻方便的,Google 一下吧 :) 11/02 21:27
→ tonglie: 喔喔 原來是這樣 我再研究研究 有誤差沒關係 因為一頁頁 11/02 22:56
→ tonglie: 點真的好漫長囧> 才想說要怎麼提高效率 11/02 22:56
→ tonglie: 謝謝b大M大的建議! 11/02 22:58
推 gagalala: coursera有另一堂programming for everyone(Python)系列 11/03 02:25
→ gagalala: 教的非常好 11/03 02:25
→ MOONY135: 舉例來講 你去露天查"洛克人"就好了 11/03 10:19
→ MOONY135: 然後注意一樣商品 在去看同樣商品 其他賣家的描述 11/03 10:20
→ MOONY135: 你就會知道困難點在哪邊了...最終還是要回歸到人來辨識 11/03 10:20
→ MOONY135: 如果你是要固定同一個賣家 那就當我沒說 11/03 10:21
→ tonglie: 謝謝g大建議 來去看看該堂課 我這兩天也有看到python有門 11/03 11:00
→ tonglie: 新課程 看起來似乎比較貼近我想做的事 11/03 11:00
→ tonglie: 謝謝m大 其實我當初就是想說先下載下來再人工辨識每一樣 11/03 11:01
→ tonglie: 商品 因為日本雅虎的商品量是台灣的好幾百倍了 滑鼠都點 11/03 11:01
→ tonglie: 到要起火了XD 我會再試試看的 謝謝QQ (雖然那步可能還很 11/03 11:02
→ tonglie: 遠 我現在連爬都不會爬 現在還很難想像障礙賽的未來 11/03 11:02
推 Thisisnotptt: 可不可以簡易敘述一下需求呢?說不定有適合度很高的 11/03 16:47
→ Thisisnotptt: 套件可以用 11/03 16:47
謝謝T大
因為目前想從日本購買某些品牌的單品,所以想說可以設定關鍵字之後
ex: エルメス スカーフ 下去單品有4,391件
雖然旁邊有一些檢索工具可以讓範圍縮小
但還是需要一個頁面一個頁面點開 看該物品的物品狀況
比如其中一個
http://page8.auctions.yahoo.co.jp/jp/auction/h212480074
商品說明有關鍵字 未使用
那可能我就會優先看這項物品的照片 評價 等資料
然後想精簡這部分的動作(一樣樣點真的很累<囧>)
我想增加效率這個應該是可以透過python完成的吧@@??
※ 編輯: tonglie (42.70.124.202), 11/03/2015 17:13:57
→ Neisseria: 用 API 應該會比自已爬網頁再 parse 來得快 11/03 20:59
→ Neisseria: 不過,自已爬網頁比較靈活就是了 11/03 21:00
→ mirage7714: 推programming for everyone的python課程 基礎教很多 11/03 22:26
推 jokebbs: 推密西根大學的那個禿頭教授+1 講得很好 11/06 23:39
推 enjoyloli: 快來加入DrChuck神教XD 11/08 22:50
推 Tr3e: udacity的intro to CS就是用寫爬蟲來入門,你可以試試 11/17 17:33
推 new122851: Requests beautiful soup4 12/05 02:01