AI Pulse

AI公司代码泄露后,第一反应是删光全网——但删不掉的才是重点

你刚在GitHub上看到一段疑似Claude Code的代码,点开还没读两行,页面就变成404——不是服务器崩了,是有人用法律当开关,把你正想看的东西一键关灯。

Anthropic的编程助手Claude Code源码意外泄露,公司立刻启动大规模DMCA下架通知,要求平台删除所有相关链接。这不是普通维权,而是依据美国《数字千年版权法》第512条发起的“无证据即删除”机制:不需要法院判决,甚至不需要证明你真侵权,只要有人声称“这是我的”,平台就大概率秒删。 这意味着:任何公司都能用版权当盾牌,把公众本该看见的技术缺陷、安全漏洞或商业黑箱,提前从互联网上物理抹除。

DMCA 512条款本意是保护平台——毕竟YouTube没法审核每条上传视频是否真有授权。但它被反向炼成了最顺手的审查工具:2003年,投票机厂商Diebold明知自家机器会丢选票,还靠政治关系强推全国;一帮学生把内部邮件贴上网,Diebold立刻发出上千份下架通知,试图让“机器不可信”这件事彻底消失。 这意味着:法律设计的免责通道,早已变成企业掩盖高风险事实的快捷键。

这次Claude代码泄露本身并不神秘——它只是暴露了一个配置失误;但Anthropic的第一反应不是公开说明、修复、致歉,而是调用整套版权武器系统去围堵信息流动。 这意味着:当一家AI公司的核心产品连基础访问控制都出错时,它对“透明”的真实态度,已经写在了下架通知的发送时间戳里。

别人没注意到,但你注意到了:下架通知越密集,越说明那串代码里藏着他们不敢让开发者集体审视的东西——不是算法多精妙,而是它有多经不起推敲。

现在,那段代码还在某些镜像站里静静躺着。而更安静的是:没人问一句,如果下次泄露的是训练数据来源清单,或者模型偏见测试报告,我们还会不会默认‘删得越快越专业’?

📎 阅读原文 · pluralistic.net