看板 NTHU_Talk 關於我們 聯絡資訊
嗨大家好,我是郭老師的學生也是這個研究團隊的成員之一,這幾天看到不管臉書ptt上都看 到很多人對我們的這個研究有些誤解,所以想藉此來澄清一下,很多人說這只是data的問題 ,大家有在做ml的應該都知道data很重要,但在現實生活中很難有真正完美balance的datas et,大部分的dataset都是有些缺陷的,正是因為有這些缺陷所以ml領域的很多人才會一直不 斷改良去加強ml model的能力,我們使用的dataset是由MIT所收集的MIMIC-CXR dataset,其 中種族是有病人self-report的,疾病是由醫生去看過X光片後做診斷後得來的,這些過程中 都包含了人的因素在其中,有了人的因素就免不了這些data可能存在bias,而目前公開的X光 片資料集的收集大部分都是這個流程,所以我們要做的是找方法讓model在學習時能忽視這些 bias,而不是就說dataset有問題然後就啥都不做。 還有一點我們在paper中使用的字都是bias,我們主要想表達的是”偏差”,並非強調歧視這 個意思。 再來就是想簡短的跟大家說明一下這個研究的內容,首先ai 可以分種族完全是個意外發現, 有了這個發現後就聯想到前些日子一篇paper是講述關於shortcut learning( reference放下 面),因為ai在分種族的能力非常的強,我們擔心種族會被ai當成shortcuts來使用,簡單來 說就是ai把種族當成判斷疾病的重要依據而不是拿病理特徵來判斷疾病,而有這樣的想法就 是因為另一組團隊發現種族間no finding 的false positive rate (aka 有病說成沒病)有b ias,所以我們想要讓ai沒辦法從影像中抓到種族的特徵,迫使ai去學習病理的特徵來去縮小 bias。 主要是我的帳號還沒達到八卦版天數要求,所以只能在這裡回,有興趣的可以幫我轉到八卦 版讓大家看。 Reference: 發現ai 可以分種族的paper: https://bit.ly/3mKYsLc MIMIC-CXR: https://arxiv.org/abs/1901.07042 Shortcut learning: https://go.nature.com/3tCXdBo 種族間診斷結果有差異的paper: https://go.nature.com/3HwPnPK ---- Sent from BePTT on my iPhone 13 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.186.21 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/NTHU_Talk/M.1655271713.A.3C3.html
ryanw: 哭啊排版好爛,請大家見諒 06/15 13:43
greeddeer: 推 06/15 14:24
LaAc: 幫高調 06/15 14:42
fksnkwg: 推 06/15 17:29
kevin1212: 推上學期助教 用電腦打比較好排版啦 用手機能打這麼多 06/15 20:05
kevin1212: 字也是很厲害 06/15 20:05
brunomarsfan: 好厲害 幫推 06/15 22:42
RhinoXiNiu: 我已經轉囉 06/16 01:07
nevikw39: 慢惹一步 06/16 01:09
stanley12646: 假裝看得懂推 06/16 01:15
shiwa: 推 06/17 18:48
S0323109: 推 06/17 22:19
qazStarStar: 推 06/19 18:32
ctw01: 對啊 覺得歧視這個詞只是給記者炒話題的 07/29 11:48