設置 | 登錄 | 註冊

目前共有5篇帖子。

transformer和diffusion

1樓 悄悄打开魔盒 2024-4-4 01:26
目前的兩個主流架構,分別處理離散和連續的數據,比如說語言和圖像。

但是diffusion其實是訓練方式,transformer是模型架構,所以diffusion也可以是transformer,DiT就是這樣。

所以兩個模型其實是可以融合的。


從transformer在長上下文的表現來看,已經可以有效處理1000萬token,作為通用人工智能是合格的,但成本還是很高的,可能會限制其應用範圍。

2樓 啊啊是谁都对 2024-4-4 08:33
感謝介紹人工智能的相關知識

能否介紹一下transformer的常用訓練方式?

3樓 圆环之理 2024-4-4 09:30
4樓 啊啊是谁都对 2024-6-3 08:38
順便一問,stable diffusion是不是其模型架構和訓練方式都是diffusion?
悄悄打开魔盒模型架構可以選擇,sd 1.5和sdxl都是UNet,而sd3是transformer,訓練方式是diffusion

內容轉換:

回覆帖子
內容:
用戶名: 您目前是匿名發表。
驗證碼:
看不清?換一張
©2010-2025 Purasbar Ver3.0 [手機版] [桌面版]
除非另有聲明,本站採用知識共享署名-相同方式共享 3.0 Unported許可協議進行許可。