→ qrtt1: 你要先讓使用者透過檔案上傳,傳到 server 端再上傳到 hdfs 06/05 22:48
→ jerrychen26: 喔喔,原來如此,感謝大大 06/06 07:41
→ realmeat: 同一個cluster下的hdfs 應該可以互通? 你的問題是? 06/06 17:37
→ realmeat: 如果不在同一個 cluster下你可以考慮 web api 06/06 17:40
雖然可以互通,但是src好像只會讀master的檔案,slave的沒辦法上傳
我是希望讓外面的人也可以上傳,有點像是雲端硬碟
謝謝大大回覆,我會研究這個api看看
※ 編輯: jerrychen26 (60.244.175.11), 06/07/2016 00:15:07
→ qrtt1: 建 path 拿 OutputStream 直接塞資料囉 06/07 14:13
→ realmeat: master跟slaver hadoop有這東西? datanode跟namenode 06/07 18:02
→ realmeat: 先了解一下, 我突然覺得架構上可能有問題 06/07 18:02
我們這邊都稱namenode是master,datanode是slave
在fs.default.name不是很多人都用master:9000嗎?
目前我是解決這個問題了,我使用q大說的,利用commons.io等API先用jsp傳到server端
再用FileSystem.copyFromLocalFile將jsp傳上的檔案put到hdfs
謝謝兩位大大給的建議
※ 編輯: jerrychen26 (60.244.175.11), 06/07/2016 23:10:49