推 chang1248w: 因果推論嘛,推pearl 的the book of why 05/15 13:54
推 chang1248w: 但是非監督的因果推論,這餅和地球一樣大啊 05/15 13:57
→ chang1248w: 另外據小道消息,第一線的工程師還是在靠肝 05/15 14:03
推 fragmentwing: 我的感想,你就是你老闆口中的認知模型 05/15 14:18
→ fragmentwing: 資料沒給齊但要把結果生出來 05/15 14:19
→ fragmentwing: 這俗稱叫「通靈」 05/15 14:19
推 fragmentwing: 查了下一樓講的 05/15 14:24
→ fragmentwing: 這東西應該還在純理論階段 很純的那種 05/15 14:26
→ fragmentwing: 拿出來跨領域 真的很純 05/15 14:32
→ fragmentwing: 用在半導體上第一原理都實際多了 05/15 14:33
推 chang1248w: 財經(他們那叫結構方程)和流行病學研究使用因果方法 05/15 14:38
→ chang1248w: 也有個二三十年 05/15 14:38
推 fragmentwing: 這東西要拿來應用不會碰上蝴蝶效應的問題嗎? 05/15 14:47
→ chang1248w: 什麼意思? 05/15 14:51
推 fragmentwing: 一開始沒考慮放入推論中的小變量導致推論結果歪掉或 05/15 15:01
→ fragmentwing: 不可預測 05/15 15:01
推 fragmentwing: *沒考慮或探測不到 05/15 15:03
推 fragmentwing: 到最後為了讓模型能得出正確預測 納入上千上萬個變 05/15 15:06
→ fragmentwing: 因然後仍然不知道還有沒有缺的 05/15 15:06
→ chang1248w: no loop + random sampling的假設可以處理掉九成,剩 05/15 15:08
→ chang1248w: 下一成當成誤差處理(x) 05/15 15:08
推 fragmentwing: 我想到一個東西……這是不是跟田口法有關? 05/15 15:09
→ chang1248w: 看起來是田口法的放大版 05/15 15:11
→ chang1248w: 我也不是做這塊的,偶爾翻兩頁書而已 05/15 15:12
推 julang: "老闆永遠是對的",祝你順利 05/15 15:27
→ truehero: 老闆:妳是半導體專家啊,妳的任務就是從少量資料抽取特 05/15 15:27
→ truehero: 徵啊 05/15 15:27
推 fragmentwing: 拉回來 05/15 15:29
→ fragmentwing: cognitive model 本身好像不是ML 05/15 15:29
→ fragmentwing: causal ML好像是python的一個package 提供的api大部 05/15 15:29
→ fragmentwing: 分都是傳統ML 05/15 15:29
→ fragmentwing: 然後有明確提到將 cognitive model 和deep learning 05/15 15:29
→ fragmentwing: 連結的研究都在2020後(有一篇提到NN的在2018) 05/15 15:29
→ fragmentwing: 非CS本科跳過來做這麼新的東西應該要配合有本科成員 05/15 15:29
→ fragmentwing: 的團隊吧 05/15 15:29
→ fragmentwing: 可能還要找個心理學的過來 05/15 15:29
→ fragmentwing: 而且 要的成品看起來已經接近AGI那邊了 05/15 15:30
→ chang1248w: 遠著哩 05/15 15:31
推 fragmentwing: 他要做的是整個半導體業界製程的通用模型 真的做出 05/15 15:35
→ fragmentwing: 來已經比gpt還近了吧 05/15 15:35
→ fragmentwing: 等等我想遠了 05/15 15:36
→ fragmentwing: 他至少不是要直接把新製程根據需求直接生一個出來 05/15 15:37
→ fragmentwing: 那確實還沒摸到agi那邊 05/15 15:37
推 fragmentwing: 我再把話題拉回來 05/15 15:43
→ fragmentwing: 之前上大廠來學校開的課 有一點記得很清楚 05/15 15:43
→ fragmentwing: 上課的工程師有提到機器學習只在成熟製程上有用(非 05/15 15:43
→ fragmentwing: 常有用) 05/15 15:43
→ fragmentwing: 有沒有一種可能是樓主的教授根本不是要做deep learn 05/15 15:43
→ fragmentwing: ing只是要做先進製程參數調控? 05/15 15:43
→ Bionut: 沒有,我們不是要做APC 05/16 00:58
→ Bionut: 謝謝各位,我大概知道自己該做什麼了XD 05/16 00:58
→ Bionut: 他是想做通用模型,他說要做的只是proof of concept 05/16 00:59
→ Bionut: 不過我現在應該想在公司找點其他能實現的東西 05/16 00:59
→ chang1248w: 我還是搞不明白他要做什麼 05/16 01:30
→ Bionut: 他想要搞一個通用模型可以理解製程的知識... 05/16 14:32
→ Bionut: 而不是只給出prediction的correlation.... 05/16 14:32
→ Bionut: 不過我困惑的是少少的變量跟資料到底要怎麼讓model理解 05/16 14:35
推 fragmentwing: 怎麼個通用法啊……這不還是成了LLM了嗎?還真的是 05/16 14:36
→ fragmentwing: 根據需求直接生製程啊! 05/16 14:36
→ Bionut: 人類想傳達的複雜問題 (加上老闆沒有其他CS PHD幫忙搭模型 05/16 14:36
→ Bionut: 所以...其實開始找其他人討論幹點別的...沒法做 05/16 14:37
推 fragmentwing: 沒有人搭(X)沒人搭得出來(O) 05/16 14:44
→ fragmentwing: 這就算是open ai的大神來也束手無策 巧婦難為無米之 05/16 14:45
→ fragmentwing: 炊 資料量一丁點這種東西怎麼玩得起來? 05/16 14:45
→ fragmentwing: 一般來說這種離譜的要求是非CS開給CS 你老闆專業的 05/16 14:45
→ fragmentwing: 怎麼會這樣亂開? 05/16 14:45
→ chang1248w: 阿他老闆就不是要做DL咩 05/17 21:00
推 BoruK: Causal inference 的 assumption 很強,continuous treatme 07/19 22:00
→ BoruK: nt 甚至更強,沒有那麼好做。甚至資料量那麼少,associatio 07/19 22:00
→ BoruK: n 都找不到了,causation 就更不可能 07/19 22:00