推 AlanCloud: whisper不能區分講者,你試試看用時間軸分,然後用其他 08/24 16:09
→ AlanCloud: 可以分辨講者的辨識也定義時間軸比對看看? 08/24 16:09
推 olctw: Whisper 產生的字幕檔案搭配編輯軟體已經相當準確與省下很 08/25 06:24
→ olctw: 多時間,搭配影片區分應該還算容易 08/25 06:24
→ ZMTL: 我的需求是從一段純語音對話內容整理資料 08/25 12:13
→ ZMTL: 剛剛用電腦跑Whisper Large模型,準度還不錯,但無法辨識講 08/25 12:13
→ ZMTL: 者導致整理有點麻煩 08/25 12:14
推 Supasizeit: 竹子稿一個字都不能錯哩,所以還不是要重聽重修 08/25 12:33
→ Supasizeit: 我上次是整理論壇,ChatGPT 可以從語意中判斷某段話 08/25 12:34
→ Supasizeit: 誰講的,蠻厲害的 08/25 12:34
推 cgjosephlee: 長文本可以參考langchain map reduce summarizatiin 08/25 12:50
→ cgjosephlee: 調整一下prompt 後3萬字的總結效果也不錯 08/25 12:51
→ cgjosephlee: 我有寫了個網頁做這個 提供給你參考 08/25 12:51
→ cgjosephlee: STT分講者可以搜尋diarization, whisper.cpp 有實驗 08/25 12:51
→ cgjosephlee: 有興趣我們可以再討論,希望有幫上忙 08/25 12:51
推 rent2ez: Vocol.ai怎麼做成可以分析講者的阿? 08/26 01:17
→ rent2ez: 它不是也用chatgpt api嗎? 08/26 01:18
→ ZMTL: 感謝討論,我之後研究一下 08/26 11:35
→ ZMTL: 我目前使用相當硬幹的方式完成我的需求 08/26 11:36
→ ZMTL: 1.提取Word轉錄的講者 2.配對到Whisper逐字稿文本 08/26 11:36
→ ZMTL: 3.把逐字稿文本每一段分開請GPT4修整精簡 08/26 11:36
推 andersonhaha: 用 Langchain 寫了一段 audio to text/summary 08/27 08:41
→ andersonhaha: 使用 gpt-3.5-turbo-16k 來處理 08/27 08:41
推 venroxas: Azure的認知服務應該有機會解決 08/28 21:36
→ ZMTL: @cgjosephlee 感謝,我正在閱讀你的Langchain方法,很有幫助 08/29 15:19
→ ZMTL: @andersonhaha 想請問這是部屬在伺服器上的?不然我怎麼可以 08/29 15:20
→ ZMTL: 連上去?好酷,不知道方不方便學習整個專案的建置 08/29 15:21
→ ZMTL: @rent2ez 看了一下,有人用whisper ai實現辨識講者,但不是 08/29 15:54
→ ZMTL: openai原本模型有的能力,是另外掛了音調辨識的模型上去 08/29 15:55
推 andersonhaha: 最近學的Langchain 程式,連結 whisper,在 strea 09/03 19:34
→ andersonhaha: mlit 部署就可以直接使用了。只是Prompts 內容無法 09/03 19:34
→ andersonhaha: 讓使用者自填 。 09/03 19:34
推 sajanny: 這是我最近在用的,逐字稿內容濃縮的還不錯 09/24 05:41
推 ping40336: Vocol.ai很讚欸 錯字率低,也可以匯出Srt.txt檔,方便 11/10 22:38