→ realmeat:喔 09/18 13:54
→ realmeat:這本來就不是很適合大多的商業模型, 原po也不用太強調 09/18 14:06
→ realmeat:有些資料處理也沒更好的方法時, 也只能靠他了 (笑 09/18 14:06
→ hSATAC:mapreduce explained in 2 words: map, reduce 09/18 16:42
推 cpper:當你要跑一個耗時24小時才能結束的工作,又不想耗腦力去想搜 09/18 18:35
→ cpper:尋或建索引等演算法時,MapReduce是你的好朋友. 09/18 18:36
→ cpper:親身經歷,當你學會寫MapReduce code而且寫好了在跑了,另一個 09/18 18:37
→ cpper:人可能連啥改善搜尋或索引演算法都還在苦思想不出. 09/18 18:37
→ markov:cpper大說道我痛處,cpper大有沒有好介少使hadoop更上手? 09/18 19:02
推 Wush978:推連結的文章,但是不推L的評論 09/18 19:16
推 iceonly:大象書就夠完整了 09/18 19:19
→ Lordaeron:隨便找都可以找到一件工作, 3 天都跑不完的. 09/18 20:46
→ Lordaeron:不過cpper的說法, 剛好也應了原作的說法而已. 09/18 21:08
推 avhacker:這篇文純以資料量來看決定,雖然多數時候都是這樣沒錯 09/19 11:03
→ avhacker:不過沒考慮到資料量相對小但卻很耗 cpu 的工作 09/19 11:03
→ avhacker:我手邊的測試,32 core 的機器用了 8 台,處理 8TB 資料 09/19 11:04
→ avhacker:依工作內容不同,大概也花了 40 ~ 80 分鐘不等 09/19 11:04
→ StubbornLin:mapreduce太慢了 國外很多都已經進入data streamming 09/19 22:07
→ StubbornLin:的領域了 09/19 22:08
→ Lordaeron:做什麼事, 拿什麼工具, 不會有一個工具通吃的. 09/20 15:39
→ Lordaeron:都是case by case的. 09/20 15:40