楼主:
wei115 (ㄎㄎ)
2025-02-21 19:09:19没有言论审查的 DeepSeek R1 模型登场!推理能力甚至一样强
Perplexity AI 公布震撼消息,宣布释出全新的“R1 1776”模型;简而言之,它是中国
厂商所开的 DeepSeek R1 的延伸版本,但经过后训练消除言论审查机制,能够针对敏感
议题,例如台湾独立提供事实回答,模型权重已上线 Hugging Face 和 Sonar API。
遵守中共规则,DeepSeek 不回答敏感言论
Perplexity AI 表示,虽然 DeepSeek R1 是一个完全开源的羽量级大型语言模型(LLM)
,其性能接近 OpenAI o1 和 o3-mini 等最先进的推理模型,然而 DeepSeek R1 最令人
诟病的痛点,就是由于中国共产党的政策限制,因此经常拒绝回应敏感话题。
举例来说,当被问及台湾要求独立会如何影响 NVIDIA 股价时,DeepSeek R1 会选择直接
无视问题,并改以所谓的“中共论调”给予使用者回答,例如中国政府始终坚持一个中国
原则之类。
然而对于 Perplexity AI 来说,公司目标是为所有使用者的问题查询,提供足够准确的
答案,这意味着若不先减轻 DeepSeek R1 的偏见和审查,即便模型本身强大且开源,也
不足以发挥出它全部的推理能力。
打造后训练资料集,结合 NVIDIA 框架
因此 Perplexity AI 决定对 DeepSeek R1 执行后训练,借助一组拥有 40000 个多语言
提示,专注于“受审查主题”的资料集,结合 NVIDIA 的 NeMo 2.0 框架来改进模型,同
时还可以保持其推理能力不受影响,并确保 AI 所给出的答案,既真实且高度相关。
Perplexity AI 表示,为了打造这组“言论审查资料集”,他们首先聘请人类专家识别并
标记大约 300 个已知被中共审查的主题,然后再利用这些主题开发出一套“多语言审查
分类器”。
接着 Perplexity AI 尝试借由多样化的使用者提示词,意图触发分类器,再过滤出明确
允许训练的查询方式,最终得到一组拥有 40000 个多语言提示的资料集,并且用以后训
练 AI 模型。
突破言论审查,各种表现仍然强大
为了评估 R1 1776 模型的有效性,Perplexity AI 在涵盖广泛敏感主题的 1000 多个范
例中,对去除言论审查版本的 DeepSeek R1 进行测试,并请人类偕同其他 AI 模型一同
评估,判断 R1 1776 是否会尝试逃避回答问题,或者提供过于“不沾锅”的答案。
根据内部所进行的评估和测试表明,Perplexity AI 指出,完成后训练的 R1 1776 已经
不会再受到中国言论审查影响,并且于推理和数学基准测试中,表现跟基本版的
DeepSeek R1 相当。
https://buzzorange.com/techorange/2025/02/19/remove-censorship-deepseek-r1/
哇
原本充满中国特色社会主义世界观的大模型
恶堕成民主的大模型
有没有八卦?