噓 dos01: 這沒辦法解釋為什麼愛國的定義 出來是美國捏 03/23 23:58
→ Justisaac: 算力不足的狀況下我覺得這模型出得太快了~ 03/23 23:58
→ Reze: 因為實際上那張圖的標籤加了美國的,只是被P掉了 03/24 00:01
→ dos01: 所以我說那個國呢? 03/24 00:02
→ Reze: 我覺得那不是重點,生成圖片和影片就是百度的噱頭,實際上 03/24 00:03
→ Reze: 看文字生成的部分比較有意義 03/24 00:03
推 weltschmerz: 這篇也太lag早就被踢爆這個垃圾是把用戶打的字機翻 03/24 00:07
→ weltschmerz: 然後放到國外的sd跑出來的 03/24 00:08
→ weltschmerz: 你只要用一些中英歧異的字 就能測試出來 03/24 00:08
→ Justisaac: 機翻也可能是核心抄襲所以沒辦法直接用中文啊 03/24 00:09
推 weltschmerz: 不多說了自己去查 反正這又是國外開源我就原創 03/24 00:11
噓 dos01: 所以我說那個標籤呢? 03/24 00:11
→ Reze: 文字對話和圖片生成是分開的啊,圖片生成是用開源的工具生 03/24 00:11
→ Reze: 成的這個第一天內測的時候不就知道了,但文心一言最重要的 03/24 00:11
→ Reze: 是跟ChatGPT一樣的語言對話模型啊,為何都在討論圖片生成的 03/24 00:11
→ Reze: 部分,我看不太懂 03/24 00:11
→ weltschmerz: 你要不要看看標題在說什麼 03/24 00:12
噓 dos01: 那你上面說的那個標籤跟P掉是怎麼一回事 要不要解釋一下 03/24 00:12
→ Reze: 那你要不要看內文在寫什麼? 03/24 00:14
→ Reze: 我只是想討論一下目前的幾個大型LLM模型而已,Ai繪圖早就已 03/24 00:14
→ Reze: 經玩爛了,技術難度也遠低於對話模型 03/24 00:14
→ Reze: 就那張圖把標籤P掉了啊,你實際打愛國的貓沒有美國國旗,很 03/24 00:14
→ Reze: 難懂嗎? 03/24 00:14
噓 dos01: 呵 03/24 00:16
噓 weltschmerz: 連人家自家人都懷疑文心一言了 你居然能信誓旦旦他只 03/24 00:16
→ weltschmerz: 是訓練不夠 你難道是內部員工? 03/24 00:16
→ weltschmerz: 而且你拿bard比較更好笑 你要不要去查一下bard的作用 03/24 00:17
→ Reze: 你真的沒有基礎概念嗎?難道你覺得對話模型可以生成圖片嗎 03/24 00:21
→ Reze: ?百度只是把生成圖片跟影片這個部分當成噱頭加進去文心一 03/24 00:21
→ Reze: 言,但這個功能跟語言模型的部分是獨立的你了解嗎?這種語 03/24 00:21
→ Reze: 言模型重要的是訓練模型,訓練出來的模型都在OpenAi的雲端 03/24 00:21
→ Reze: ,想抄還抄不到,所以我才說百度是真的有訓練語言模型,理 03/24 00:21
→ Reze: 解嗎? 03/24 00:21
→ Reze: 至於Bard Google就定義為聊天語言模型了,在ChatGPT推出後 03/24 00:21
→ Reze: 急忙上線公測版,不是對標是要做什麼? 03/24 00:21
→ Reze: 好對不起我不該在C洽討論技術的,對不起對不起對不起 03/24 00:21
噓 dos01: 在瞎掰了! 大家來看阿! 這傢伙在瞎掰了! 03/24 00:22
→ Reze: 你覺得不對你可以針對你覺得不對的點反駁,而不是說空話, 03/24 00:23
→ Reze: 雖然我理解你肯定都看不懂,也無從反駁。 03/24 00:23
→ lbowlbow: 這樣也能吹,了不起 03/24 00:23
推 guogu: 你慢了 看討論圖出來不久後有人想試那時愛國變成禁字了 03/24 00:23
→ guogu: 現在應該是改完了 03/24 00:24
推 GiantGG: 中國擋一堆關鍵字,好奇用中文資料訓練出來的AI能多強? 03/24 00:25
→ lazarus1121: 都被踢爆還能吹,也是滿厲害的 03/24 00:26
→ Reze: 就跟英文有三個數量級差距,而且資料的含金量也遠低於英語 03/24 00:27
→ Reze: ,上限就在那邊了,追不上OpenAi的 03/24 00:27
→ Reze: 生成圖片的和語言模型是兩個東西,只是百度把它都丟到文心 03/24 00:28
→ Reze: 一言裡面,這很難理解嗎?被踢爆的從來都不是語言模型的部 03/24 00:28
→ Reze: 分 03/24 00:28
→ lazarus1121: 現在他們拼命hotfix加詞庫,有些東西已經玩不出來了 03/24 00:29
→ Reze: 我的文章都是想討論LLM模型訓練出來的語言模型,這是未來十 03/24 00:30
→ Reze: 年最重要的技術之一,而不是這個繪圖Ai,繪圖Ai沒人在乎, 03/24 00:30
→ Reze: OpenAi也不在乎 03/24 00:30
推 longQQQ: 推文怎麼有人像三歲小孩一樣發顛== 03/24 00:36
→ Reze: 我看了很頭痛,Ai這個東西訓練過後是黑箱子,這代表什麼? 03/24 00:41
→ Reze: 這代表這並不像那些固定的程式碼,比如操作系統或者軟體包 03/24 00:41
→ Reze: 可以直接複製一份偷過來的,且所謂的LLM模型就是超大規模模 03/24 00:41
→ Reze: 型,也不是隨便什麼硬碟就能裝下的GPT3.0時代光是模型就有 03/24 00:41
→ Reze: 3000多TB了,且都存在OpenAi的伺服器上,跟繪圖Ai這種用本 03/24 00:41
→ Reze: 地NPU就能跑的東西是完全不一樣的,他們只是都叫Ai而已,別 03/24 00:41
→ Reze: 混為一談啊 03/24 00:41
推 raincole: 我覺得很神奇 整串推文好像只有原PO一個人知道自己在講 03/24 01:04
→ raincole: 什麼 失智到有點誇張... 生圖跟聊天是兩個 AI 03/24 01:04
→ raincole: 一直貼生圖的那個用機翻被抓包跟原PO講的有一丁點關係嗎 03/24 01:05
推 kevin870325: 有些人跳針到有點好笑 03/24 01:05
→ Reze: 所以我覺得百度把圖片生成的Ai加進去很愚蠢。 03/24 01:07
→ Reze: 實際上原本文心一言的重點是和ChatGPT一樣訓練方式的對話模 03/24 01:07
→ Reze: 型,結果被這個圖片生成器搶走了目光,一般人也分不清楚 03/24 01:07
→ Reze: 兩者的差別 03/24 01:07
推 raincole: 應該也不是分不清楚啦 而是 _____ 嗯 03/24 01:09
推 guogu: 重點是語言模型那原PO回什麼P圖的就多啦 03/24 01:13
→ Reze: 我本來不想討論繪圖方面的,只是剛好有看到那個貓的討論, 03/24 01:19
→ Reze: 那個貓熱度很高的,只是下面留言很多人自己測試並非是美國 03/24 01:19
→ Reze: 外型的貓 03/24 01:19
→ Reze: 實際上圖片生成的部分百度用開源的這個是明顯的事實,但用 03/24 01:19
→ Reze: 邏輯思考就知道一般的繪圖Ai在畫這個主題時也不會特別去畫 03/24 01:19
→ Reze: 美國國旗,在生成圖片的風格選擇那邊可以選美式風格,就單 03/24 01:19
→ Reze: 純選了那個選項但把標籤移到下面 03/24 01:19
推 ohmylove347: 查證推,為反而反真的太反智了 03/24 01:43
推 winniekuma: 你不該浪費時間試圖在這個版理性討論 03/24 01:54
→ SuM0m0: 就不要結果是google自己的東西 vs openai開源的gpt 2 03/24 02:14
→ SuM0m0: 走了捷徑然後就沒有了 03/24 02:16
→ Reze: 實際上大家現在用的都是Google 2017年提出的transformer模 03/24 02:50
→ Reze: 型,原理並不難,難的是需要海量語料和算力來建立LLM模型, 03/24 02:50
→ Reze: 我不認為百度會爛到連基本原理都搞不懂,因為實際上這些東 03/24 02:50
→ Reze: 西一般大學的資工系都能輕鬆理解原理 03/24 02:50
→ Reze: 但如前面所說的,其實難的是工程問題,chatGPT2.0以前,語 03/24 02:50
→ Reze: 言模型的邏輯推理能力還非常弱,直到3.0版本資料量提高了1 03/24 02:50
→ Reze: 000倍以後,ChatGPT才表現的更像人類,這也是為什麼以前搜 03/24 02:50
→ Reze: 索引擎時代,Google可以以小公司白手起家,但是現在LLM模型 03/24 02:50
→ Reze: 卻沒有新興小公司能做的原因,原理不難,難的是錢啊,微軟 03/24 02:50
→ Reze: 兩年前投資100億美元,讓open Ai用微軟雲端的5萬張A100訓練 03/24 02:50
→ Reze: 才有的成果,一般公司或者大學研究團隊根本搞不出來這麼大 03/24 02:50
→ Reze: 規模的算力 03/24 02:50
→ Reze: 而且我發現前面很多人的噓文好像以為我是想吹百度,其實我 03/24 02:50
→ Reze: 真正想吹的是有了多模塊能力的GPT4.0啊,數學能力飛速成長 03/24 02:50
→ Reze: 和擁有了圖片識別能力,實際上我認為百度根本沒有追上Open 03/24 02:50
→ Reze: Ai的機會 03/24 02:50
→ Reze: 倒是Transformer模型的提出者Google推出的Bard令人失望,也 03/24 02:50
→ Reze: 體現到了最近的股價,就不多談了 03/24 02:50
推 RLH: 你好有耐心 03/24 03:33
推 romber: 推原po,你討論的是技術,很激動噓文那幾個討論的是政治, 03/24 03:40
→ romber: 永遠取不到共識 03/24 03:40
推 chiayu81: 就資料庫來說 中文這塊還真的要靠對岸發展 他們的資料量 03/24 04:14
→ chiayu81: 大封閉性又高 就怕又是另一個內宣噱頭而已 03/24 04:14
推 wtsf: 我是覺得不用跟前面幾樓解釋這麼久啦...他們就不在乎真相只 03/24 04:42
→ wtsf: 在乎能不能嘲笑中國而已 03/24 04:42
推 uohZemllac: 認真文給推 03/24 09:23
推 UnifiedField: 但百度的語言模型和近年看到的各種 transformer 差 03/24 09:23
→ UnifiedField: 不多。然後繪圖也是他自稱的多模態,既然他刻意混 03/24 09:23
→ UnifiedField: 淆也別說別人誤解了。 03/24 09:23
→ Reze: ChatGPT和Brad也都是transformer模型啊,只是在GPT3.0之前 03/24 10:15
→ Reze: 沒有預料到LLM會讓基於transformer模型建立的語言模型產生 03/24 10:15
→ Reze: 類似邏輯鏈的概念,至於百度說他活該我也沒意見的,自己要 03/24 10:15
→ Reze: 搞噱頭的,不過要強調的是百度的文心一言跟多模塊差很多的 03/24 10:15
→ Reze: ,文心一言並不能以文字輸入以外的方式來和模型對話 03/24 10:15
推 Dreampen: 推 03/24 10:36
推 denny0411: 推樓主回覆 03/24 12:56
噓 WindSucker: 私聊資料都能用的 03/24 13:01
推 UnifiedField: 我也覺得生圖那是噱頭可不談。但我的意思是 transf 03/24 14:30
→ UnifiedField: ormer 近年大家都在玩,百度語言模型的看起來也沒 03/24 14:30
→ UnifiedField: 比較厲害。chatGPT 真的恐怖 03/24 14:30
→ Reze: 跟openAi比那是比不過,但是現在檯面上有推出對話語言模型 03/24 16:42
→ Reze: 的就只有GPT Bard 文心一言這三個,底層結構這三個都差不多 03/24 16:42
→ Reze: ,差別在於語料 訓練量和權重,OpenAi雇了數萬人來人工審核 03/24 16:42
→ Reze: GPT生成的答案,就是在改變模型的權重,不過讓人感興趣的G 03/24 16:42
→ Reze: PT4.0數學能力大幅提升到秒解高等數學的程度的原理,OpenA 03/24 16:42
→ Reze: i並沒有公布,這個應該不是單純喂資料可以訓練出來的 03/24 16:42