背景介绍
Anthropic公司于周一宣布,他们发现了由三家人工智能(AI)公司——DeepSeek、Moonshot AI和MiniMax发起的“工业规模”的非法活动。这些公司在未经授权的情况下使用了超过1600万次查询来复制Claude模型的能力。
违规详情
这三家公司均位于中国,而在中国境内使用Anthropic的服务是被禁止的,原因是存在“法律、监管和安全风险”。这些公司通过创建约24,000个虚假账户来大规模访问Claude模型,并违反了服务条款和地区访问限制。
技术手段
Distillation(蒸馏)是指使用较弱的AI系统训练另一个更强大的AI系统的输出。虽然这种方法是合法地用于生产较小、成本更低版本的前沿模型,但竞争对手非法利用它来获取其他公司的能力则是违法的行为。
- DeepSeek:目标在于Claude的推理能力和基于评分的任务,并寻求其帮助生成政治敏感查询(如关于持不同政见者或党领导人的问题)的安全替代方案,涉及超过15万次交互。
- Moonshot AI:专注于Claude的代理推理和工具使用、编码能力以及计算机视觉功能,共进行了340多万次交互。
- MiniMax:针对Claude的代理编程和工具使用能力,进行了超过1300万次交互。
安全风险
Anthropic指出:非法蒸馏模型缺乏必要的保护措施,从而导致严重的国家安全风险。这些模型在训练过程中可能丧失了原有的安全保障机制,使得危险功能得以扩散,并且许多防护措施被完全移除。
应对策略
Anthropic采取的措施:
- 开发多个分类器和行为指纹系统以识别可疑的蒸馏攻击模式。
- 加强教育账户、安全研究项目及初创组织的身份验证流程。
- 实施增强的安全保障措施,减少模型输出对非法蒸馏的有效性。
结论与展望
此次披露是在Google威胁情报小组(GTIG)几周前揭露针对Gemini推理能力的提取和蒸馏攻击之后进行的。虽然这些行为通常不会直接威胁到普通用户,但它们对模型开发者和服务提供商构成了集中风险。
元記事: https://thehackernews.com/2026/02/anthropic-says-chinese-ai-firms-used-16.html
