設置 | 登錄 | 註冊

作者共發了2篇帖子。

transformer和diffusion

1樓 悄悄打开魔盒 2024-4-4 01:26
目前的兩個主流架構,分別處理離散和連續的數據,比如說語言和圖像。

但是diffusion其實是訓練方式,transformer是模型架構,所以diffusion也可以是transformer,DiT就是這樣。

所以兩個模型其實是可以融合的。


從transformer在長上下文的表現來看,已經可以有效處理1000萬token,作為通用人工智能是合格的,但成本還是很高的,可能會限制其應用範圍。

內容轉換:

回覆帖子
內容:
用戶名: 您目前是匿名發表。
驗證碼:
看不清?換一張
©2010-2025 Purasbar Ver3.0 [手機版] [桌面版]
除非另有聲明,本站採用知識共享署名-相同方式共享 3.0 Unported許可協議進行許可。