看板 Soft_Job 關於我們 聯絡資訊
譯文: http://geek.csdn.net//news/detail/2780 原文: http://www.chrisstucchio.com/blog/2013/hadoop_hatred.html 名言: MapReduce explained in 41 words: Goal: count the number of books in the library. Map: You count up shelf #1, I count up shelf #2. (The more people we get, the faster this part goes. ) Reduce: We all get together and add up our individual counts. HADOOP 多神奇呢....... -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 42.70.181.62
realmeat:喔 09/18 13:54
realmeat:這本來就不是很適合大多的商業模型, 原po也不用太強調 09/18 14:06
realmeat:有些資料處理也沒更好的方法時, 也只能靠他了 (笑 09/18 14:06
hSATAC:mapreduce explained in 2 words: map, reduce 09/18 16:42
cpper:當你要跑一個耗時24小時才能結束的工作,又不想耗腦力去想搜 09/18 18:35
cpper:尋或建索引等演算法時,MapReduce是你的好朋友. 09/18 18:36
cpper:親身經歷,當你學會寫MapReduce code而且寫好了在跑了,另一個 09/18 18:37
cpper:人可能連啥改善搜尋或索引演算法都還在苦思想不出. 09/18 18:37
markov:cpper大說道我痛處,cpper大有沒有好介少使hadoop更上手? 09/18 19:02
Wush978:推連結的文章,但是不推L的評論 09/18 19:16
iceonly:大象書就夠完整了 09/18 19:19
Lordaeron:隨便找都可以找到一件工作, 3 天都跑不完的. 09/18 20:46
Lordaeron:不過cpper的說法, 剛好也應了原作的說法而已. 09/18 21:08
avhacker:這篇文純以資料量來看決定,雖然多數時候都是這樣沒錯 09/19 11:03
avhacker:不過沒考慮到資料量相對小但卻很耗 cpu 的工作 09/19 11:03
avhacker:我手邊的測試,32 core 的機器用了 8 台,處理 8TB 資料 09/19 11:04
avhacker:依工作內容不同,大概也花了 40 ~ 80 分鐘不等 09/19 11:04
StubbornLin:mapreduce太慢了 國外很多都已經進入data streamming 09/19 22:07
StubbornLin:的領域了 09/19 22:08
Lordaeron:做什麼事, 拿什麼工具, 不會有一個工具通吃的. 09/20 15:39
Lordaeron:都是case by case的. 09/20 15:40