看板 Gossiping 關於我們 聯絡資訊
我是覺得能夠低硬體跑GPT模型反而更能推廣AI的應用, 今天雖然這些大公司是千片萬片的加速卡在買,但是真正能讓加速卡跟 相關硬體大賣就是要普及才行不是嗎? 君不見現在一大堆AI相關專案,基礎模型相關的應用,都是需要自架伺服器 調整超參數、模型微調等,更勝著進行多種模型的整合應用以及進行模型的 可信任與安全驗證等。 另外,難道大家都覺得現在GPT模型已經夠聰明了嗎? 很顯然的不是,只是很擅長回答參考答案夠多的問題。 如果要讓GPT模型更上層樓需要的算力是以非線性的方式增長,只能說deepseek 的出現只是帶給AI相關的發展更多的希望罷了。 且其餘的競爭者為了迎頭趕上,甚至超車,只會加大投資而已,畢竟AI的戰場 目前是群雄並起,並沒有出現獨霸的狀況,所以後續還很有得玩。 ※ 引述《taot917 (每天一點新鮮)》之銘言: : deep出世,應該是傷到chetgpt : 我就不懂,甘輝達屁事 : 這軟硬體的區別阿 : 有人說,因為不需要那麼好的硬體就能跑 : 這兩回事阿 : 就很像女人,原本洋妞很美奶大又緊 : 現在你說出了個中國妞,一樣可以 : 但是身材上輸很多 : 這不同賽道阿 : 腦子可以成長,但奶子就是奶子 : 肉體的差異後天無法改變阿 : AI的整理對答,現在沒什麼實際作用 : 只是讓大學生偷懶而已 : 後面的製圖跟影片編輯 : 才是算力的需求來源吧 : 我剛問deep,他也是叫我用gpt那邊的達利 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.159.208.239 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1738082762.A.F7E.html
StylishTrade: 天才的腦容量也沒有比你大多少阿XD 1.163.69.28 01/29 00:48
yololu: 4 希望NVDA再跌一些 我要壓身家 1.171.231.192 01/29 00:48
StylishTrade: 更聰明就要腦容量非線性成長 1.163.69.28 01/29 00:48
StylishTrade: 顯然是錯的 1.163.69.28 01/29 00:48
StylishTrade: 不然愛因斯坦頭應該比籃球還大 1.163.69.28 01/29 00:50
leonidass: Scaling law也沒失效吧 61.61.82.150 01/29 00:50
xyz168: 很顯然的人腦真正使用比例不高,並非不夠 49.159.208.239 01/29 00:53
xyz168: 用,愛因斯坦雖然開了一道門,但是後續 49.159.208.239 01/29 00:54
xyz168: 卻也知道這世界的門多得可怕,並且可怕的 49.159.208.239 01/29 00:54
xyz168: 不簡單。並非要唱衰deepseek,但真的能有 49.159.208.239 01/29 00:55
xyz168: 多強,後續值得看看,老實說deepseek用了 49.159.208.239 01/29 00:55
xyz168: 多少算力算出來,除非有人能做artifact 49.159.208.239 01/29 00:55
xyz168: demonstration,不然也只是喊爽的而已 49.159.208.239 01/29 00:56
Risperidone: 拜託等我上車,我要all in 115.43.49.29 01/29 18:42