其實這跟統計比較有關係....而統計的特色就是沒有絕對客觀的可能
k-means在某些case下可能會不太客觀....不過他總是個方法....
有時候數據都黏在一起你可能就要重覆做好幾次才能分的比較開...
(不過話說回來數據都黏在一起還要幫他們硬分類本來也就不客觀....)
k-means還有其他的一些修正方法....主要就是要讓prototype變的比較好一點的
例如說....今天有一個a群邊緣的點....可是跟他最近的prototype卻是c.....
這真是讓它情何以堪呀....所以就會把c的prototype往反向推一點點....
當然這不可能一直做.....不然prototype永遠都停不下來....(踢皮球)
通常這是在定下prototype後....隨機抽出原來的幾個點....
然後對幾個prototype做knn 同時做以上的修正
而這個步驟還可以加上加權參數....例如說動前三次...權重參數比較大....
讓你動的遠一點....之後把權重參數調低....少動一點....
由操作者來決定權重參數....或者是交給機器自動微調....
以便得到"看起來"比本來更好的分纇....
--
That's all .... 我最近是越來越閒了....連這種文章都回....
--
※ 發信站: 批踢踢實業坊(ptt.csie.ntu.edu.tw)
◆ From: u872517.LI.ab.nthu.edu.tw