→ aria0520 : 直接講結論 當然不懂 02/23 14:24
→ aria0520 : 把lecun的解釋看看就懂了 02/23 14:25
→ aria0520 : 世界模型不可能以這種方式建構 02/23 14:26
推 ohlong : 要是哪天真的暴力破解 一堆遊戲3d engine的公司就 02/23 14:27
→ ohlong : 丸子 02/23 14:27
→ chunfo : 蒼井空是世界的 02/23 14:31
推 j112233446 : 如果真的可以train出一個懂物理模型的model是不是 02/23 14:50
→ j112233446 : 代表了他的loss function 就隱含了夠正確的物理模 02/23 14:50
→ j112233446 : 型? 02/23 14:50
推 havochuman : 首先你要先定義甚麼是懂物理模型的model 02/23 14:53
→ havochuman : 人類對物理世界的了解連1%都不到 你要怎麼參照? 02/23 14:53
推 jupei : 拿來做動畫不懂也沒差 02/23 14:54
推 wcre : 人類都不懂世界了,期待人類訓練的AI懂? 02/23 14:54
推 Chilloutt : 人類物理學家終將滅亡 02/23 15:23
推 min86615 : 原理還是看SIGGRAPH的論文比較有啟發 02/23 15:36
→ bnn : 現在一定還不懂 但遲早的事 02/23 15:46
→ bnn : 應該還是現在的物理引擎產生各種訓練資料(AI輔助) 02/23 15:47
→ bnn : 然後再用這些資料拿去訓練 02/23 15:47
→ final01 : 他都能當你物理老師了還不董物理嗎 02/23 16:06
→ ciswww : 沒學過物理的人可以畫出其他人看起來合理的湖水 02/23 16:23
→ kaltu : 要先定義什麼是懂,現在的神經網路有人有中文房間問 02/23 16:27
→ kaltu : 題,像樓上的LLM給出物理教學,究竟只是這些權重預 02/23 16:27
→ kaltu : 測這個prompt和先前的token應該放出下一個token機率 02/23 16:27
→ kaltu : 最高的恰巧會讓人類以為他懂物理,還是他真的懂物理 02/23 16:27
→ kaltu : 從預測失敗的例子大概就知道他根本什麼都不懂,只是 02/23 16:27
→ kaltu : 近期可能的模仿人類而已 02/23 16:27
→ kaltu : 其實這類AI本質上跟芙莉蓮的魔族(人形的魔物)一樣 02/23 16:27
→ kaltu : ,本身不是人類也不在乎要不要用人類的方式去弄懂世 02/23 16:27
→ kaltu : 界,只是像鸚鵡一樣知道講某些話會有讓人類以為他們 02/23 16:27
→ kaltu : 懂的效果而已 02/23 16:27
→ kaltu : 跟之前對LLM暈船的研究員一樣,模型只是在吐出你想 02/23 16:27
→ kaltu : 聽的話而已,如果你覺得他有意識那他就會吐會讓你覺 02/23 16:27
→ kaltu : 得他有意識的output 02/23 16:27
→ kaltu : 他並不需要真的有意識,只要讓你認為他有意識就能讓 02/23 16:27
→ kaltu : 你設定的loss function happy了 02/23 16:27
→ kaltu : 這類模型就是盡其所能的唬爛,講錯的時候唬得跟真的 02/23 16:34
→ kaltu : 一樣 02/23 16:34
→ kaltu : 但其實講對的時候對模型而言它何嘗不也只是在唬爛? 02/23 16:34
→ kaltu : 它根本不知道自己講的對不對,只知道生這些token可 02/23 16:34
→ kaltu : 以有最大的機會降低loss而已 02/23 16:34
→ kaltu : Sora本身的架構也是LLM,以預測像素token為核心,一 02/23 16:34
→ kaltu : 樣會和現行LLM有短期context乍看之下正常,長期cont 02/23 16:34
→ kaltu : ext狗屁不通的問題 02/23 16:34
推 joygo : soma來了 02/23 16:46
→ houseguy : 期望ai能比人類更快發現新的自然方程式 02/23 16:50
噓 DrTech : 推文真的是笑死人,不懂裝得很厲害喔。Sora是Diffus 02/23 17:30
→ DrTech : ion Transformer 模型,,不是LLM。 02/23 17:30
噓 DrTech : 更簡單說法:diffusion model,1不是LLM。 02/23 17:35
推 TSMCfabXX : 七年前 GAN 模型已可生成圖片 02/23 17:37
→ TSMCfabXX : Sora 則是整合 Open AI LLM 去處理 text 的部分 02/23 17:40
→ TSMCfabXX : DM 又比 GAN 效果更好 02/23 17:43
→ TSMCfabXX : 要看起來違反物理, 可以是水往上流(視覺錯覺) 02/23 17:46
→ TSMCfabXX : 也可以是虹吸管原理 02/23 17:46
→ TSMCfabXX : 從來都不需要在一部影片裡構築完整的物理世界 02/23 17:47
→ TSMCfabXX : 就跟漫威宇宙電影不會全部塞在同一集一樣 02/23 17:48
→ yunf : 不用懂只要超越現在那些現有的即可 02/23 18:05
→ yunf : 不管他用什麼方式只要能超越現有的就是優點 02/23 18:05
→ yunf : 講白了這點就是讓你們失業的主因 02/23 18:06
→ yunf : 他已經超越你工作的極限! 02/23 18:07
推 ohlong : 其實怎麼想都覺得一定很快 舉個例unreal engine 生 02/23 18:08
→ ohlong : 成的東西拿去training 學會物理特性以後再diffusi 02/23 18:08
→ ohlong : on 就好惹 02/23 18:08
→ k85564 : 物理不就是數學 ai強多了 02/23 18:24
→ a27417332 : 推文好多頂級researcher,這波台灣AI就靠大大們了 02/23 18:35
推 aspwell520 : 我要看到血流成河 02/23 19:45
→ musashi023 : 置板凳 02/23 20:02
推 KenshinCS : 現在的訓練方式模型當然是不懂的,我認為比較可以理 02/23 20:24
→ KenshinCS : 解成‘‘考古題有教這樣寫所以我跟著寫’’,不是‘ 02/23 20:24
→ KenshinCS : ‘我理解物理原理所以我這樣解題’’。 02/23 20:24
噓 stationary : 結論All in NVDA SMCI 02/23 21:04
噓 SkyIsMyLimit: 說「懂」就太裝B了 ai大概就是跟狗狗握手一樣有基礎 02/23 21:08
→ SkyIsMyLimit: 因果判斷能力吧 人與人都無法判斷對方懂不懂 哪有可 02/23 21:08
→ SkyIsMyLimit: 能判斷ai懂不懂 搞笑喔 02/23 21:08
→ TSMCfabXX : 蟻王跟尼特羅 PK, 蟻王窮舉法贏了尼特羅 02/23 21:16
→ TSMCfabXX : 但尼特羅說蟻王不懂人類 02/23 21:16
推 havochuman : 樓上你看哪部的蟻王有用窮舉法 02/23 21:31
推 a1237759 : 一堆工程師考試上碩班,Fourier transform 跟Maxwel 02/23 21:32
→ a1237759 : l equation 真的要解釋含義是多少人懂? 02/23 21:32
→ a1237759 : AI寫得出好的答案不代表真的懂 02/23 21:32
推 camerara : 嗯嗯 跟我想的差不多 02/23 22:20
推 Homeparty : 看到流體力學造動畫我就end了 02/23 22:21
推 lavign : AI還少了理解這個世界的動力或是慾望 02/24 00:07
推 bring777 : 人人都能編造電影給觀看 02/24 00:14
→ abyssa1 : Ai人云亦云會變笨啊 02/24 00:40
→ abyssa1 : Loss function把已知的物理公式都帶進去看看 02/24 00:42
→ LDPC : 某半桶水又在亂講AI了 顆顆 Alignment是通往了解 02/24 00:54
→ LDPC : 世界模型方法 所以LLM的Reasoning變很重要 02/24 00:55
→ LDPC : 透過alingment text和影像latent space才能結合 02/24 00:55
→ LDPC : 所以Lecunn才會認為embeding(alignment)是拆解因果 02/24 00:56
→ LDPC : 演言之啦diffusion會無腦產生影像 你需要用reasonin 02/24 00:57
→ LDPC : 去控制它產生方式 所以LLM才能引導diffusion 02/24 00:57
→ LDPC : 所以說sora會跟LLM有相關 在我們這行不能算錯 02/24 01:01
→ LDPC : Dall-E 3+ChatGPT就是這樣用法 02/24 01:03
→ LDPC : 你去看dalle架構是透過CLIP (Text-Img Alginment) 02/24 01:03
→ LDPC : 當然你也可以手動給text去guide diffusion來取代LLM 02/24 01:06
→ LDPC : 每張每張的去產生影片 只是這樣太花時間 02/24 01:06
推 bnd0327 : 如果學得到精確的物理關係,拿去做機器人會比作影片 02/24 01:06
→ bnd0327 : 來得有價值吧 02/24 01:07
→ LDPC : 樓上 所以現在大家都在追求世界模型解法啊 02/24 01:08
→ LDPC : 現在有些reasoningLLM和CLIP拿去做在機器人上 02/24 01:11
→ LDPC : 所以造就了LLMAgent這個方向 02/24 01:12
推 CuLiZn56 : 先說結論,目前Navier-Stokes流體是無解的,甚至我 02/24 01:51
→ CuLiZn56 : 們用AI也只是玩個皮毛罷了! 02/24 01:51
→ MTKer5566 : 我好像看得懂他們在說什麼 慘了 02/24 03:48
→ MTKer5566 : 真不應該,這不是我現在應該要會的 02/24 03:48
推 ayianayian : 就娛樂來講,夠用了啦 02/24 04:51
噓 snoopy920 : 時間, 才推出多久? 02/24 09:50
→ yunf : 現在問題可能會是未來ai是98%人類知識的頂端!你必 02/24 09:52
→ yunf : 須不斷證明自己的知識是有巨大價值的不然就無法得到 02/24 09:52
→ yunf : 2%人類知識探索的資格!未來只要是ai能回答的問題基 02/24 09:52
→ yunf : 本上大家認知水平都差不多!即便他跟本不理解也可以 02/24 09:52
→ yunf : 用ai代替!你們正把世界變成這樣! 02/24 09:52
推 riotssky : 讓sora破幾次薩爾達應該就學得會了 02/24 11:49
推 bitcch : 如果可行以後科學理論說不定都用巨量資料跟算力來解 02/24 12:49
推 darkangel119: 結論 歐印AI 02/24 16:25
噓 pig12335331 : 一堆人在那邊講幾%幾%,看得我好躁 02/24 20:17
→ yunf : 很多人還沒有搞清楚狀況!當你失去獨立思考的能力時 02/24 20:26
→ yunf : ,你就很容易回到封建時代!你認為很正常合理的事情 02/24 20:26
→ yunf : 其實只是你的認知被侷限在缺乏突破性思考的框架裡! 02/24 20:26
→ yunf : 講個淺顯易懂的就是什麼公司掛上了科技兩個字不論他 02/24 20:26
→ yunf : 技術含量有多少看起來都好像很厲害,什麼科系前面都 02/24 20:26
→ yunf : 要掛一個科學看起來好像很厲害,什麼人頭銜掛個工程 02/24 20:26
→ yunf : 師看起來好像很厲害!很多事情當你不具備相關領域的 02/24 20:26
→ yunf : 專業時是不容易跨出那個框架! 02/24 20:26