看板 ask 關於我們 聯絡資訊
https://reurl.cc/o8lgn5 https://reurl.cc/4LEaZD 哪個解釋較正確 有人知道嗎? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.187.67 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/ask/M.1750745143.A.E9C.html
bajiqa: 請google,除非你期望ask版有這樣專業的人才能回答 06/24 15:16
StellaNe: 都對 但前者只說明了資源來源 後者比較接近運作的本質 06/24 15:40
s0914714: LLM不能爬網路資料 LLM單純就是預測下一個token 06/24 22:25
yeeouo: 可以把它們的回答拿去問對方 06/25 12:01
yeeouo: 讓他們互相解釋和討論 06/25 12:01
yeeouo: 另外可以問的深入一點 06/25 12:01
yeeouo: 例如可以問transformer架構和多頭注意力 06/25 12:01
yeeouo: 可以幫助了解主流大語言模型的本質 06/25 12:01
yunf: 參考參考就好 他這個就是一個很不自然的答案就像一張扭曲的 06/26 00:52
yunf: 照片 06/26 00:52