AI 模型: Deepseek R1 671B
Temperature: 0.5
(0至1, 愈高愈有創意,
相反愈低愈準確)
每條問題最多1000個字元
上文最多2000個字元
輸出最多2000個tokens
另有長文版,按此試玩!
DeepSeek R1 671B 是由中國 AI 初創公司深度求索(DeepSeek)開發的大型語言模型,擁有 6710 億個參數,採用 Mixture-of-Experts (MoE) 架構,每個 token 只激活 370 億個參數,確保高效能與低計算成本的平衡。
該模型在多項 AI 基準測試(如數學推理、代碼生成、閱讀理解等)中表現出色,與 GPT-4o、Claude 3.5 等主流 AI 模型相當,尤其在編程和推理能力上展現卓越性能。