|  | 点击 | 回复 | 标题 | 作者 | 最后回复 | 
            
        |  | 89 | 0 | 以下是3個prompts1.以上是某人在「如何評價刑法學家張明楷」下方的評論,分析這篇評論是否「通篇都是情緒輸出,沒有內容」
 2.以上是某人在「如何評價刑法學家張明楷」下方的評論,這裡的...
 | 啊啊是谁都对 | 10-6  啊啊是谁都对 | 
            
        |  | 124 | 0 | 在腦袋不清楚的時候用確實好使 | 啊啊是谁都对 | 9-12  啊啊是谁都对 | 
            
        |  | 365 | 0 | 正確的提問不是「如何用英文翻譯XXX」→此時容易只給出來一個答案如果用「如何用英文表達XXX」,則會根據不同語境給出許多個答案
 | 啊啊是谁都对 | 4-30  啊啊是谁都对 | 
            
        |  | 412 | 1 |  | 啊啊是谁都对 | 3-22  圆环之理 | 
            
        |  | 988 | 8 | 僅僅100M的參數量(GPT-4的萬分之一左右),目前還是base模型,沒有包含chat功能。數據里包含輕小說,模型是學會了語言風格,當然仔細一看就是胡言亂語了。測試時使用"我喜歡你,"作為開... | 悄悄打开魔盒 | 8-19  悄悄打开魔盒 | 
            
        |  | 734 | 1 | 難度還是不小的,有一些隱藏的坑模型流程:
 1. 文字序列首先被分成token,把token的序號輸入模型, 輸入張量的維數為(B,T), B是批次大小(也就是同時處理幾段文字),T是文字...
 | 悄悄打开魔盒 | 7-23  啊啊是谁都对 | 
            
        |  | 1059 | 8 | https://testurtext.site/ | 圆环之理 | 6-18  圆环之理 | 
            
        |  | 673 | 1 | @悄悄打開魔盒  | 圆环之理 | 6-18  悄悄打开魔盒 | 
            
        |  | 1063 | 4 | 目前的兩個主流架構,分別處理離散和連續的數據,比如說語言和圖像。但是diffusion其實是訓練方式,transformer是模型架構,所以diffusion也可以是transformer,D...
 | 悄悄打开魔盒 | 6-17  悄悄打开魔盒 | 
            
        |  | 901 | 7 |  | 悄悄打开魔盒 | 4-17  啊啊是谁都对 | 
            
        |  | 665 | 0 | 親愛的用戶:歡迎來到人工智慧吧,阿斯蘭侃吧歡迎您的到來~請先閱讀我們的社區準則:
 https://zh.arslanbar.net/documents/eula/
 以及版權...
 | 社区管理员 | 3-4  社区管理员 |