推 joshddd: 你知道 cross validation 不是你這個意 101.8.138.99 11/27 16:13
→ joshddd: 思嗎? 他是指train 模型時 切割樣本集 101.8.138.99 11/27 16:13
→ joshddd: 還有你說資料歧視那叫 data unbalanced. 101.8.138.99 11/27 16:13
→ joshddd: . 會有專門的調整方法… 101.8.138.99 11/27 16:13
那是比喻的廣義用法 不是你說的專業領域狹義的用法喔
→ joshddd: 哪本書這麼業餘 ml cnn 時代就討論爛的 101.8.138.99 11/27 16:14
→ joshddd: 東西 llm 時代還在講 101.8.138.99 11/27 16:14
是挪威科學技術大學電腦科學系副教授寫的
她用這兩個例子提醒讀者不要盲信數據的意見
這些事當然對專業人士來說很業餘
但是很多人不知道喔 所以專業大大你可以多發一點專業文教教我們
我們沒人教只能自己找專業人士寫的科普書來讀
※ 編輯: LoveSports (95.173.204.98 日本), 11/27/2025 16:34:26
推 nckuff: 你這個就很兩難 價值觀可以說是由偏見組153.174.251.145 11/27 16:35
→ nckuff: 成的,你要AI像人 模仿人類的思考行為模式153.174.251.145 11/27 16:36
→ nckuff: 又要他不要有偏見 本質上是有點矛盾的問題153.174.251.145 11/27 16:36
→ nckuff: 例如: 不可以殺人 這是偏見?還是普世價值?153.174.251.145 11/27 16:37
→ nckuff: 再往模糊地帶推進一點 吃豬肉是瀆神嗎?153.174.251.145 11/27 16:38
其實不矛盾 我們對其他人類的意見也會抱持懷疑吧
不可能盡信 因為我們知道沒有真理
所以對於AI也是用同樣態度面對
AI訓練學到的是全世界到處抓來的資料的大集合(當然不是全部)
也會有偏見 所以我們對於問到的答案必須要保持懷疑與批判的態度
至於"不可以殺人" 你也提到這是普世價值
如果得到了這個回答 自己思考後還是無法接受 決定殺人
那他下場是得付出代價 所以不論什麼回答都是自己要想清楚自己負責任
(模型是用人類從古到今包括網路的數據來做訓練 不可能沒有偏見)
※ 編輯: LoveSports (95.173.204.98 日本), 11/27/2025 16:54:37
推 pyhsiao: 切割樣本集就是交叉驗證的意思 共勉之 219.68.126.85 11/28 10:33