字节跳动大模型训练被实习生攻击 损失超千万美元?
发布时间:2024-10-19 07:50:06 作者:界面新闻 浏览量:404
10月18日,多个微信群流传一则消息:某头部大厂的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码影响了8000多张卡,带来的损失可能超过千万美元。
知情人士透露,该头部大厂为字节跳动。事件发生在2023年6月,起因是一名在字节跳动商业化技术团队实习的高校博士生对团队资源分配不满,使用攻击代码破坏团队的模型训练任务。
向字节跳动求证此事时,官方未进行回应。传闻中提到,这名田姓实习生利用HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型训练效果不稳定,无法达到预期效果,且AML团队无法查明原因。但该实习生在某微信群里辟谣,称自己发完论文后已从字节跳动离职,此时有人钻漏洞改模型代码,并将责任推到他头上。
据知情人士了解,字节跳动内部调查确认此事确为田姓实习生所为。目前,该实习生已被辞退,字节跳动将此事同步给阳光诚信联盟和企业反舞弊联盟,以及该实习生所在的学校。尽管如此,这名实习生被辞退后仍在四处“辟谣”,坚称是他人所为。
实际上,该实习生攻击的是商业化技术团队的模型训练任务,而非豆包大模型。这影响了该技术团队的一些业务进展,但对公司造成的实际损失并未如传闻中的那么严重。
一位技术安全专家指出,此次事件暴露出字节跳动在技术训练方面存在安全管理问题。公司既没有做好权限隔离,也没有进行共用代码的审计。正常情况下,每次大的代码变动都必须经过审计,确保操作有迹可循。行业通用的做法是采用三级隔离导向性部署,每一级只有镜像,每次调用前需先扫描并使用密钥,完成一级后才能进入下一级,而上一级则自动删除。
收藏
最热文章
为您推荐
最新文章
热门话题