推 pponywong : 國外一開源 國內就自研 05/03 12:46
→ pponywong : 該不會model有參考GPT-2.0 open source 吧 05/03 12:47
推 abccbaandy : 不都這樣? 對岸早就一堆"自研"了XD 05/03 12:51
噓 leo921080931: 超廢 05/03 12:51
推 ethan0419 : 自研cc 05/03 12:52
推 as80110680 : 不能畫色圖的AI我可是不要的 05/03 12:53
推 kmark1120 : 如果是gpt-2開源碼做出來的 對岸一堆了 人家不公開 05/03 12:53
→ kmark1120 : 的已經做到4代了 不知道能力差ㄅ別多少 05/03 12:53
→ faelone : 發哥之前還成立元宇宙辦公室呢,真的蠻愛顧股價的 05/03 12:54
推 Archier : 瑟瑟 05/03 12:55
推 capssan : 這沒辦法畫圖吧,我看連生成色色文都不行 05/03 12:57
推 NEX4036 : 明天漲停不要不信。 05/03 12:57
→ capssan : 而且學習的內容居然還包含新聞?..真期待會教出啥 05/03 12:58
→ capssan : 玩意兒 05/03 12:58
噓 stationary : 發哥也懂AI?那就只能噴了 05/03 12:58
推 BaGaJohn5566: 要重返農藥了嗎 05/03 13:04
→ is1128 : 去玩玩demo吧,我只能說廢到笑 05/03 13:07
推 FlynnZhang : \發哥/\發哥/ 05/03 13:10
→ lpmybig : 發糕重返農藥 上看一千 05/03 13:13
噓 qwas65166516: 一樓不懂裝懂 內文就說是BLOOM基底了 別只會酸 05/03 13:15
→ uv5566 : 沾邊就想炒 下一個元元宙 05/03 13:16
→ qwas65166516: 國內有大廠願意投資就值得鼓勵了 05/03 13:16
推 cage820518 : 發哥本業沒未來了是嗎? 搞這個東東 05/03 13:18
推 GooglePixel : 配合政府發展計劃領個打工費而已 05/03 13:19
噓 qwe78971 : 還以為是自研 結果是拷貝別人的拿來改== 這樣我單 05/03 13:19
→ qwe78971 : 人就可以做了 發哥有沒有考慮高薪聘請 05/03 13:19
→ sdhpipt : 之後會講一堆廣東話吧 05/03 13:20
推 KadourZiani : 華語首家線上____上線囉 05/03 13:20
推 Albert0912 : AI炒起來 05/03 13:21
→ littenVenus : AI發糕 AI肉鬆 好ㄘ嗎 05/03 13:23
噓 dergnj : 不過做繁體字沒前途就是了 05/03 13:25
→ alex780312 : 大語言模型搞到剩繁中... 05/03 13:27
推 may0723 : 台灣首家線上AI上線啦! 05/03 13:29
→ l024bytes : 等等 這不是it 就有在教學 05/03 13:32
→ starport : 粉紅:乳 為什麼不是簡體 05/03 13:33
推 weiyuhsi : 阿難的就是預訓練模型,從Bert開始,語言一直都不 05/03 13:34
→ weiyuhsi : 是太大的障礙,對模型來說啥語言都差不多,好的預 05/03 13:34
→ weiyuhsi : 訓練模型隨便tuning一下就可以在其他語言上有很好 05/03 13:34
→ weiyuhsi : 的表現。 05/03 13:34
→ weiyuhsi : 不過有大方的說自己套什麼預訓練模型,誠實給讚 05/03 13:34
推 intointo : 訓練資料來自? 05/03 13:36
推 derekhsu : 這個用開源模型做出來的 懶叫比雞腿喔 05/03 13:43
推 observer0117: chatgpt用reddit訓練,bloom-zh該不會用ptt... 05/03 13:47
→ observer0117: hugging face,會想到face hugger 05/03 13:48
→ janhon : 2000億 大概到GPT 3.0規格吧 05/03 13:50
→ laechan : 跑出答案的速度超慢 05/03 13:50
噓 Murasaki0110: 笑死 直接git clone算什麼研發 05/03 13:51

→ JOKIC : 肥宅福音 05/03 13:58
推 rrroooqqq : 有ai就是噴了,管他內容是什麼!重返千金股 05/03 14:11
推 strlen : 你各位是多嚴格?能跑出結果來就該放鞭炮了 05/03 14:15
→ piece1 : 試了一下....爛到不知道該說啥了! 05/03 14:15
噓 ggininin5566: 太神啦 05/03 14:24
→ onit : 傻傻的 豬在風口都會飛 發哥本益比這麼低 就差題材 05/03 14:44
噓 qwe78971 : 試用了一下爛到笑,工程師是不是if(最高建築)cout 05/03 15:01
→ qwe78971 : <<101<<Endl;這樣 那找我去做就可以了 05/03 15:01

推 lizardc1 : 發哥 上看兩千 一切 預告在前 05/03 15:13
推 tr920 : 用開源軟體刻出來,大概大學專題程度 05/03 15:19
噓 NCCUexpert : 參數量差太多,你在幼稚園學習別人讀高中了 05/03 15:40
噓 lise1017 : 基本上台灣搞的起來的東西都是老蔣那一幫留美回來 05/03 15:43
→ lise1017 : 的中國人搞的 土生土長的台灣人搞出來的東西就是些 05/03 15:43
→ lise1017 : 小鼻子小眼睛 05/03 15:43
→ lise1017 : 成不了氣候 這麼說也不是台灣沒人材 而是台灣的人 05/03 15:44
→ lise1017 : 材都不會傻呆在台灣早就出走了 05/03 15:44
推 ac3333 : 看到工研院心就涼一半了… 05/03 16:41
推 OnePiecePR : 30億參數、130億 tokens 應該還沒湧現現象,如果跟 05/03 16:49
→ OnePiecePR : 前幾代能力差不多就糗大了。再觀察~ 05/03 16:49
→ shinyi444 : 爽啦打爆殘體文 05/03 16:54
→ DrTech : 真的是git clone等級而已。拿別人的模型,Bloomz上f 05/03 16:55
→ DrTech : ine-tune而已。而且有7.7%的資料是從簡體中文直接翻 05/03 16:55
→ DrTech : 成繁體中文。 05/03 16:55
→ DrTech : 模型參數只有1B-3B,10億-30億,真的是GPT-2規模而 05/03 17:17
→ DrTech : 已。 05/03 17:17
推 thaleschou : 馬上被串去交友軟體 05/03 17:57
推 kalapon : 用之乎者來交談很利害嗎 05/03 18:00
噓 reemir : git clone: 05/03 18:57
推 OnePiecePR : 坦白說 transformer 我也能刻,不知道能不能上新聞 05/03 19:01
→ OnePiecePR : 。坦白說,我也用 prompt 讓 ChatGPT 產出 transfo 05/03 19:01
→ OnePiecePR : rmer encoder(by torch) 同時也驗證正確能執行,不 05/03 19:01
→ OnePiecePR : 知道能不能上新聞。我不叫發科、我也不姓聯。 05/03 19:01
推 webster1112 : 用來發費雯 超讚 ! 05/03 20:24
→ jarr : 這東西跟拿來當基底的語言模型差在哪? 有沒有什麼d 05/04 13:47
→ jarr : emo之類的可以展示出差別? 05/04 13:47