看板 C_Chat 關於我們 聯絡資訊
駭客任務片段: 男主: "妳懂直升機嗎?" 女主: "還不懂." (三秒後 女主: "現在懂了." ------------- 如果人類開發出秒懂技術, 是否就能對抗AI了? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 106.107.135.143 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1765252408.A.E55.html
PunkGrass: 人類運作所需要的能量遠小於ai 12/09 11:54
James2005: 變身國王高剛:知道了.jpg 12/09 11:55
EfiwymsiAros: 你先植入晶片 12/09 11:55
Beanoodle: 只有露西能對抗AI吧 12/09 11:55
npc776: 你是在說全人類都變成新人類呢 還是全人類都變成橘子汁? 12/09 11:56
James2005: 許多人都以為叫AI算零除零(0/0),他們就會自爆了XD 12/09 11:56
James2005: 其實AI根本不怕這種運算 12/09 11:57
gn02218236: AI都不用3秒吧,駭客任務不是就告訴你人類再怎樣都在A 12/09 11:58
gn02218236: I的控制之下嗎?「救世主」也是AI設計好的循環的一部 12/09 11:58
gn02218236: 分 12/09 11:58
joy82926: 看設定 12/09 12:02
labbat: 零除以零是報無效操作錯誤啊,要一除以零才是報除零錯誤 12/09 12:02
ilove640: 兩個都是裝懂 沒啥差 12/09 12:06
kaj1983: 老闆問你懂不懂的時候,我也會秒懂啊 12/09 12:08
kaj1983: AI就沒有生存壓力 12/09 12:08
kirimaru73: 如果是說現在的語言模型,其實要讓它學新東西超級麻煩 12/09 12:14
kirimaru73: 語言模型訓練初期會灌入網路上爬到的巨量資料,這時候 12/09 12:19
roger840410: 我還以為直升機是體位 12/09 12:19
kirimaru73: 它可以學到一些知識,然後和其他東西混在一起而無用化 12/09 12:20
kirimaru73: 後面的訓練過程要喚醒這些知識是相對容易很多的 12/09 12:20
kirimaru73: 但是要新增從未學過的知識,難度是公認的超高又危險 12/09 12:21
kirimaru73: 人類的學習能力反而屌打這個麻煩的性質 12/09 12:21
jupto: 人類其實也是用一樣方式在學習 只是人類持續在現實世界訓練 12/09 12:43
jupto: 等同有無數人在當你的人為監控所以不會走歪而已 12/09 12:43
jupto: 現在AI的問題就是規模與成本 它仍然只有在作為高效工具時才 12/09 12:45
jupto: 比人類“更划算” 12/09 12:45
tsunamimk2: 那就是對稱加密 12/09 14:10
tsunamimk2: 你說的東西 對人與人的溝通來說 就是對稱加密 12/09 14:10
tsunamimk2: 基於某種不公開少數人知道的共識對應的密碼 12/09 14:11
tsunamimk2: LLM的計算終究是廣義與高維度的HMM 但依然是統計 12/09 14:13
tsunamimk2: 對刻意設計的編碼 現在的LLM是沒有合理時間內的破解 12/09 14:13
tsunamimk2: 與推理能力的 至於量子計算 那跟核融合一樣 12/09 14:14
tsunamimk2: 目前是騙錢用的 12/09 14:14
tsunamimk2: 不維持個理論可行狀態 就拿不到補助與持續投資了 12/09 14:14
tsunamimk2: 這些投資其實主要會用在基礎科學研究上 12/09 14:15
tsunamimk2: 人是不是用同樣的方法在學習 這要打一個大問號 12/09 14:15
tsunamimk2: 目前的ANN核心的理論是從泛函分析出發的 12/09 14:16
tsunamimk2: Stone-Weierstrass 定理 這定理說明 可以用單純的刺激 12/09 14:17
tsunamimk2: -回應小型函數(一個類神經節點的函數)無限近似任何 12/09 14:17
tsunamimk2: 機率分布函數 只要有夠高的維度與夠多的節點 12/09 14:18
tsunamimk2: 但並沒有說明怎麼做到 是不是真的能做到 12/09 14:18
tsunamimk2: 所以說人是用同樣的方法學習本身是個錯誤的論述 12/09 14:18
tsunamimk2: AI那是統計學的結論 12/09 14:18
tsunamimk2: LLM依然是統計學 沒有其他 但是是可以靠算力大力出 12/09 14:19
tsunamimk2: 奇蹟的統計學 不代表能夠真的實現AGI 12/09 14:19
tsunamimk2: 因為人腦也不完全是透過貝氏理論推論的 12/09 14:20
tsunamimk2: LLM目前的行為是使用者的鏡子 12/09 14:22
tsunamimk2: 另外有興趣的話 Transformer模式真正的革命是平行化 12/09 14:26
tsunamimk2: 因為那就是在算向量內積 12/09 14:26
jupto: 人腦運作確定就是靠超多層超大量的刺激回應單元完成的啊 12/09 15:02
jupto: 自己都說機率分佈與刺激回饋兩者會呈現出一樣結果 如果這 12/09 15:02
jupto: 個基礎論述本身無錯表示我的設備性能到位就能做出一個完全 12/09 15:02
jupto: 一樣功能的人腦 12/09 15:02