看板 Tech_Job 關於我們 聯絡資訊
在圖型識別領域中,最近鄰居法(KNN演算法,又譯K-近鄰演算法)是一種用於分類和迴 歸的無母數統計方法[1]。在這兩種情況下,輸入包含特徵空間(Feature Space)中的k 個最接近的訓練樣本。 在k-NN分類中,輸出是一個分類族群。一個物件的分類是由其鄰居的「多數表決」確定的 ,k個最近鄰居(k為正整數,通常較小)中最常見的分類決定了賦予該物件的類別。若k = 1,則該物件的類別直接由最近的一個節點賦予。 在k-NN迴歸中,輸出是該物件的屬性值。該值是其k個最近鄰居的值的平均值。 最近鄰居法採用向量空間模型來分類,概念為相同類別的案例,彼此的相似度高,而可以 藉由計算與已知類別案例之相似度,來評估未知類別案例可能的分類。 K-NN是一種基於實例的學習,或者是局部近似和將所有計算推遲到分類之後的惰性學習。 k-近鄰演算法是所有的機器學習演算法中最簡單的之一。 無論是分類還是迴歸,衡量鄰居的權重都非常有用,使較近鄰居的權重比較遠鄰居的權重 大。例如,一種常見的加權方案是給每個鄰居權重賦值為1/ d,其中d是到鄰居的距離。[ 註 1] 鄰居都取自一組已經正確分類(在迴歸的情況下,指屬性值正確)的物件。雖然沒要求明 確的訓練步驟,但這也可以當作是此演算法的一個訓練樣本集。 k-近鄰演算法的缺點是對資料的局部結構非常敏感。 K-平均演算法也是流行的機器學習技術,其名稱和k-近鄰演算法相近,但兩者沒有關係。 資料標準化可以大大提高該演算法的準確性[2][3]。 -- 『對於不喜歡的人,我沒必要去討好他,不瞭解我的人,我也不必非讓他瞭解我不可。』 ----出自第十六冊第19頁 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.173.138.40 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1676200277.A.781.html
Rayyh : 已知用火? 02/12 19:13
misomochi : 這算什麼情報… 02/12 19:16
jason90814 : ???? 02/12 19:21
josephroyal : 這篇在幹嘛 02/12 19:21
kingweirong : 現在是沒人管能拿來當洗文版用了嗎 慘啊 02/12 19:24
alan23273850: [情報] 1+1=2 02/12 19:31
rong546 : 這種大一回家作業有需要貼在這嗎 02/12 19:44
jupei : 學到一課了呀! 02/12 19:47
zuchang : 抄資料還不會抄 下去 02/12 19:49
yyyyyyyv : 這什麼廢文 可憐 02/12 20:08
laplacian : 受益良多 謝謝好人 一生平安 02/12 20:15
Yan5566 : 優文給推 02/12 20:15
pttano : 看無啦 02/12 20:17
Raymond0710 : ??? 02/12 20:26
ku399999 : 優質 02/12 20:30
loadingN : 註 1 02/12 20:32
deepdish : 這不就維基百科複製貼上? 02/12 21:00
deepdish : 看維基百科不如問AI 02/12 21:02
deepdish : https://i.imgur.com/aOz4jB4.png 02/12 21:03
kevin963 : 太強了 感謝大大分享 02/12 21:12
lifeowner : 基本精神是coordinate descent 請証明收斂性及只能 02/12 21:12
lifeowner : 找到local minimum 02/12 21:12
yamax : 2 02/12 21:17
ppuuleo : 人工智慧是一個方向 機器學習是裡面的一支領域學問 02/12 21:21
ppuuleo : 深度學習又是機器學習裡面的一種演算法 02/12 21:22
ppuuleo : 所以 才有前輩告訴你先分清楚 KNN用於ML CNN用於DL 02/12 21:23
Roderickey : 錯版了吧 soft-job 02/12 21:23
nanpolend : 會ai餓不死的裁員最後死 02/12 21:31
simo520 : 常識當情報 02/12 21:48
LincolnBoy : 推 學習了 02/12 22:07
TFBF : 老人版這麼多噓 不意外 02/12 23:18
physicsdk : 不是捧美政黑文就給推 02/13 00:14
xuzx : 把維基百科貼過來幹嘛? 02/13 01:22
qoo60606 : ? 02/13 01:27
JenniferLope: 笑死 這啥 02/13 03:17
Ericz7000 : 這… 02/13 03:25
astrofluket6: 2沒壞 02/13 04:28
zxp9505007 : 笑死 02/13 05:39
zzzz8931 : 機器人寫壞了嗎? 02/13 06:39
CooLHoney : ??? 02/13 06:51
GGing : 很多人用了K-NN就沾沾自喜說自己是做AI或ML 02/13 07:12
jason222333 : …….. 02/13 07:30
una283 : 這是不是在測試自動發文程式 02/13 08:25
venomsoul : 今天力叩每日 = one liner大賽 02/13 09:25
TSMCfabXX : 廢文劣退永桶 02/13 11:57
nanpolend : 這是深度學習中最菜的演算法,其他的很麻煩有的一 02/13 13:41
nanpolend : 層層神經網絡微調,基本上要會微積分線性代數統計 02/13 13:41
nanpolend : 線性規劃為基礎 02/13 13:41
mayasky : 當blog? 02/13 16:17
samhsu : 大一讀書會內容借貼一下? 02/13 19:17
HotDogCC : 當你個板? 02/13 21:58
peter98 : 都跟你說這不是深度學習了 還在堅持欸 02/13 23:05
peter98 : 這個是大二就有教的資料分析 50年前就有的東西了 02/13 23:06
toper : ID 02/14 10:29
doranako : ChatGpt po文啦,大驚小怪 02/14 12:31
chobit199685: 跟深度學習一點屁關係都沒有 02/15 01:38
shikemurajy : 這又不屬於深度學習底下的,只是深度學習裡有人會 02/15 14:37
shikemurajy : 用KNN 做一些事情而已 02/15 14:37
Gary21 : 老哥 先看懂gradient descent好不= = 02/16 20:05