→ dreamnook2: 這篇有種ai產的感覺(欸12/19 07:41
真人啦!機器應該不會這樣回覆推文吧?
※ 編輯: sxy67230 (101.12.46.112 臺灣), 12/19/2022 07:46:27
推 guogu: 只能等傳說中能通過圖靈的gpt4了12/19 08:38
→ smart0eddie: 不是幹話可以記好幾個月但是開會只能記兩三天嗎(誤12/19 09:14
有些幹話倒是可以記很久,像我到現在都記得我死黨自己說喜歡E奶大波,但是內人問我交
往當初的聊天內容就記不住了
※ 編輯: sxy67230 (101.12.46.112 臺灣), 12/19/2022 09:31:15
※ 編輯: sxy67230 (101.12.46.112 臺灣), 12/19/2022 09:35:04
推 arrenwu: 我總覺得LSTM那作法感覺不是很scalable 說XD 12/19 11:06
我這邊後來有看到去年有用Transformer做的,但是整體架構還是沒變,用Transformer大概
就是提升Robustness,其實這種Dialogue policy比較多應用在這種有既定任務的行為,這
種一般要做純生成是有困難的,畢竟他有動作(可能是調用API)需要人工設計給他一個目標
,純只靠一個模型生成我認為是很難的事情,大多都會用系統面搭配資料庫利用來符合工業
使用,缺點就是這個對話樹需要人工維護。
※ 編輯: sxy67230 (101.12.46.112 臺灣), 12/19/2022 12:56:14
推 UnifiedField: 唉我還真以為 GPT 成功做出記憶了,你一說並接我就12/19 16:31
→ UnifiedField: 懂了XD12/19 16:31
推 nilr: 推12/19 16:40
推 TaiwanFight: 這領域年薪聽說隨便都能四五百萬吧 贏麻了 12/19 22:03
主要還是對這塊領域有興趣,大學時代就開始深耕了(那個年代做神經網路研究都被教授說
沒前景),畢竟我那個孩童時代每個男孩都對阿斯拉、哆啦A夢有幻想過。
推 vios10009: 沒特別弄記憶是不想占太多內存吧?不然只有4000個標記12/19 23:57
→ vios10009: 真的很少,不然他每個公開的網頁都能模擬出來,資料量12/19 23:57
→ vios10009: 肯定很大12/19 23:57
你說得對,國外有人逆向工程發現到他可以做到併接很大的前段對話,但是當前研究生物腦
發現其實可以更高效地壓縮資訊,等到需要使用部分資訊透過跳躍式聯想提取正確資訊,我
覺得當前GPT還沒做到這樣的生物腦功能。
題外話: 我有很多朋友覺得chatGPT出現就沒有甚麼東西可以研究了,但是我發現其實還有
更多需要研究的子議題出現,包含記憶、世界模型(你研究深一點就發現chatGPT根本不懂世
界的規則),還有論文有發現到chatGPT在後期微調用強化學習方式會導致其他通用領域(像
是語意分類)的性能下降,這些都是值得繼續探索的議題。
※ 編輯: sxy67230 (49.216.26.207 臺灣), 12/20/2022 07:30:24
※ 編輯: sxy67230 (49.216.26.207 臺灣), 12/20/2022 07:36:15
推 UnifiedField: 真,像是正確性也還完全無法保證 12/20 09:03