2月24日,清华大学与瑞莱智慧联合团队发布大语言模型Real-Safe-R1。该模型基于Deep-Seek-R1进行深度优化与后训练,在确保性能稳定基础上实现安全性的显著提升,为开源大模型安全发展与风险治理提供了创新解决方案。
连日来,国产开源大模型DeepSeek的优异表现令人惊艳,其在自然语言处理和多任务推理方面的能力展现了强大技术实力,尤其是在复杂问题解决和创造性任务中表现出色。然而,DeepSeek-R1和V3在面对越狱攻击等安全性挑战时仍存在一定局限性。技术专家分析,这一安全短板并非Deep-Seek所独有,而是当前开源大模型的通病,其根本缺陷源于安全对齐机制的深度不足。
为此,清华瑞莱联合团队提出了基于模型自我提升的安全对齐方式,将安全对齐与内省推理相结合,使大语言模型能够通过具有安全意识的思维链分析来检查潜在风险。实验数据表明,基于该方法推出的RealSafe-R1系列大模型安全性提升显著,表现优于被认为安全性较好的闭源大模型Claude3.5、GPT-4o等。据悉,RealSafe-R1各尺寸模型及数据集将于近期向全球开发者开源。(记者 孙奇茹)
相关人物