目前共有5篇帖子。 字體大小:較小 - 100% (默認)▼  內容轉換:港澳繁體▼
 
點擊 回復
495 4
transformer和diffusion
上位魔導士 十五級
1樓 發表于:2024-4-4 01:26
目前的兩個主流架構,分別處理離散和連續的數據,比如說語言和圖像。

但是diffusion其實是訓練方式,transformer是模型架構,所以diffusion也可以是transformer,DiT就是這樣。

所以兩個模型其實是可以融合的。


從transformer在長上下文的表現來看,已經可以有效處理1000萬token,作為通用人工智能是合格的,但成本還是很高的,可能會限制其應用範圍。

副總編 二十二級
2樓 發表于:2024-4-4 08:33
感謝介紹人工智能的相關知識

能否介紹一下transformer的常用訓練方式?

 
大魔導士 十七級
3樓 發表于:2024-4-4 09:30
 
副總編 二十二級
4樓 發表于:2024-6-3 08:38
順便一問,stable diffusion是不是其模型架構和訓練方式都是diffusion?
 
悄悄打开魔盒:模型架構可以選擇,sd 1.5和sdxl都是UNet,而sd3是transformer,訓練方式是diffusion
  2024-6-17 19:43 回復

回復帖子

內容:
用戶名: 您目前是匿名發表
驗證碼:
(快捷鍵:Ctrl+Enter)
 

本帖信息

點擊數:495 回複數:4
評論數: ?
作者:悄悄打开魔盒
最後回復:悄悄打开魔盒
最後回復時間:2024-6-17 19:43
 
©2010-2025 Purasbar Ver2.0
除非另有聲明,本站採用創用CC姓名標示-相同方式分享 3.0 Unported許可協議進行許可。