Google 报告称 Gemini 被攻击者尝试克隆超过10万次

背景

谷歌在其季度自我评估报告中披露,商业动机的黑客试图通过简单地向其 Gemini AI 机器人发送提示来复制知识。据报道,在一次对抗性会话中,攻击者在多种非英语语言中对模型进行了超过10万次的提示。

Google 的立场

谷歌将这种非法活动称为“模型提取”,并认为这是知识产权盗窃。然而,鉴于谷歌自己的 LLM(大型语言模型)是在未经许可的情况下从互联网上抓取材料构建而成的事实,这一立场显得有些复杂。

行业背景与实践

在行业中,这种通过训练新模型来复制先前模型输出的做法被称为“蒸馏”。如果想要建立自己的大型语言模型但缺乏谷歌投入的资金和时间,则可以使用已有的 LLM 作为捷径。这需要向现有的 AI 模型输入数千个精心挑选的提示,并收集所有响应以训练一个更小、更便宜的新模型。

攻击详情

在报告中,谷歌威胁情报小组描述了针对 Gemini 的蒸馏攻击正在增加。许多活动特别针对帮助模型执行模拟推理任务或决定如何分步处理信息的算法。尽管谷歌已经调整了 Gemini 的防御措施来应对这些攻击,但并未详细说明具体采取了哪些反制措施。

行业反应

这种蒸馏技术不仅限于谷歌,OpenAI 也曾指控中国竞争对手 DeepSeek 使用此方法改进其模型。然而,在没有法院裁决的情况下,区分标准的蒸馏和盗窃取决于所复制的模型以及是否获得许可。


元記事: https://arstechnica.com/ai/2026/02/attackers-prompted-gemini-over-100000-times-while-trying-to-clone-it-google-says/