作者sustainer123 (溫水佳樹的兄長大人)
看板Marginalman
標題batch former
時間Wed Oct 8 18:24:04 2025
可以簡單理解成針對batch的注意力機制
對每張圖片的同個位子做transformer
老實說我覺得他的想法滿有道理的
但我的實驗結果不是很好
姆咪
可能batch size太小
也可能寫錯
待觀察
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.153.42 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1759919047.A.D7D.html
推 oin1104: 寶 你好強 內推我 10/08 18:25
→ sustainer123: 我是垃圾喔 10/08 18:26
推 SuiseiLeda: 你好強 10/08 18:27
→ sustainer123: 你姑姑魯 10/08 18:31
推 SecondRun: 可以用圖片生gif嗎 10/08 18:48
→ sustainer123: 圖像生成我不熟 10/08 18:54