推 HaHadog: 恭喜你 發現爲什麼在這裡真的有開發經驗的工程師噴那些AI 03/01 19:34
→ HaHadog: 吹噴那麼兇了 這就是現在AI開發現實 至於那些說未來會進 03/01 19:34
→ HaHadog: 步的 可能連現在語言模型的基礎原理是什麼都不知道先吹再 03/01 19:34
→ HaHadog: 說 03/01 19:34
→ gtr22101361: ?? 03/01 19:36
推 tsairay: 從AI開發得利最大的是那些自有資料中心的大公司 03/01 19:43
→ tsairay: 他們token多半是無限使用的,才能獲益如此巨大 03/01 19:44
推 ZielC: 但會不會就是因為本地模型,上下文容量與產token能力不足 03/01 21:47
→ ZielC: ,才只能讓他閱讀部份的代碼無法觀察全局導致你文中的情境 03/01 21:47
→ ZielC: ?當然本地化的保密需求是外部AI model永遠無法滿足的 03/01 21:47
推 ZMTL: 我看下來這好像不是LLM的問題... 03/01 22:18
→ ZMTL: 這個場景本身就已經只有頂尖Model的選擇了,本地自訓練的 03/01 22:20
→ ZMTL: 就要先考慮推理能力落差,再來會2000個dev排隊這是治理問題 03/01 22:20
推 aspirev3: 0>1 AI很神 1>100真的就還好 專案越大人越多就越還好 03/01 22:39
推 abc21086999: 人家脈絡都說了,不就是不能用外面的嗎 03/01 22:47
→ abc21086999: 而且LLM做事情無視規則真的蠻常遇到的 03/01 22:47
→ ZMTL: 我知道情境不能用外面啊,但不是那幾個頂級的推理model就 03/01 23:08
→ ZMTL: 不太適合拿來類比啊,能力真的有差 03/01 23:08