|  | 點擊 | 回復 | 標題 | 作者 | 最後回復 | 
            
        |  | 89 | 0 | 以下是3个prompts1.以上是某人在“如何评价刑法学家张明楷”下方的评论,分析这篇评论是否“通篇都是情绪输出,没有内容”
 2.以上是某人在“如何评价刑法学家张明楷”下方的评论,这里的...
 | 啊啊是谁都对 | 10-6  啊啊是谁都对 | 
            
        |  | 122 | 0 | 在脑袋不清楚的时候用确实好使 | 啊啊是谁都对 | 9-12  啊啊是谁都对 | 
            
        |  | 364 | 0 | 正确的提问不是“如何用英文翻译XXX”→此时容易只给出来一个答案如果用“如何用英文表达XXX”,则会根据不同语境给出许多个答案
 | 啊啊是谁都对 | 4-30  啊啊是谁都对 | 
            
        |  | 412 | 1 |  | 啊啊是谁都对 | 3-22  圆环之理 | 
            
        |  | 988 | 8 | 仅仅100M的参数量(GPT-4的万分之一左右),目前还是base模型,没有包含chat功能。数据里包含轻小说,模型是学会了语言风格,当然仔细一看就是胡言乱语了。测试时使用"我喜欢你,"作为开... | 悄悄打开魔盒 | 8-19  悄悄打开魔盒 | 
            
        |  | 733 | 1 | 难度还是不小的,有一些隐藏的坑模型流程:
 1. 文字序列首先被分成token,把token的序号输入模型, 输入张量的维数为(B,T), B是批次大小(也就是同时处理几段文字),T是文字...
 | 悄悄打开魔盒 | 7-23  啊啊是谁都对 | 
            
        |  | 1059 | 8 | https://testurtext.site/ | 圆环之理 | 6-18  圆环之理 | 
            
        |  | 673 | 1 | @悄悄打开魔盒  | 圆环之理 | 6-18  悄悄打开魔盒 | 
            
        |  | 1062 | 4 | 目前的两个主流架构,分别处理离散和连续的数据,比如说语言和图像。但是diffusion其实是训练方式,transformer是模型架构,所以diffusion也可以是transformer,D...
 | 悄悄打开魔盒 | 6-17  悄悄打开魔盒 | 
            
        |  | 901 | 7 |  | 悄悄打开魔盒 | 4-17  啊啊是谁都对 | 
            
        |  | 665 | 0 | 亲爱的用户:欢迎来到人工智能吧,阿斯兰侃吧欢迎您的到来~请先阅读我们的社区准则:
 https://zh.arslanbar.net/documents/eula/
 以及版权...
 | 社区管理员 | 3-4  社区管理员 |