当前位置:网站首页 > 科技快报 > 正文

深度求索发布大语言模型DeepSeek-R1

2025-01-25
深度求索发布一款价格低廉的大语言模型DeepSeek-R1,其性能比拟美国OpenAI开发的最新一代模型o1,但训练成本更低。世界经济论坛2025年年会开幕当天,中国量化巨头幻方量化旗下的子公司深度求索公司1月20日发布最新开源模型DeepSeek-R1。
据深度求索介绍,DeepSeek-R1在后训练阶段大规模使用强化学习技术,在仅有极少标注数据的情况下,极大提升模型推理能力。这意味着该模型的训练跳过了监督微调(SFT)的步骤。
在第三方基准测试中,DeepSeek-R1在算法类代码场景和知识类测试中的得分略低于OpenAI的o1,但在工程类代码场景、美国数学竞赛项目上均超越o1模型。
令外界更关注的是,与o1性能比肩的DeepSeek-R1,训练成本比o1低了五十分之一。
此外,深度求索提供更加低廉的收费方案,每百万tokens(大模型基本单位,1000个tokens约等于500个汉字)仅需16元人民币,远低于o1模型每百万tokens要价438元。
去年12月,深度求索公司发布DeepSeek-V3模型,仅使用2048块英伟达弱化版的H800晶片,花两个月就训练出性能比肩GPT4.0的模型。
DeepSeek能在多大程度上转化为实际的科学和技术应用,还是仅仅在基准测试中表现优异,仍有待观察。
除了深度求索公司,字节跳动星期三(1月22日)发布豆包大模型1.5 Pro,并称该模型在美国数学竞赛项目基准测试中表现优于o1模型。
 

最近关注

热点内容

更多>>