探数数据讯 媒体在12月5日获得消息,Lasso Security最近发现了AI模型平台Hugging Face上的API令牌漏洞。黑客可以利用这个漏洞获取微软、谷歌、Meta等公司的令牌,并且能够访问模型库,污染训练数据或窃取、修改AI模型。
根据该安全公司报道中的获悉,由于平台的令牌信息写死在API中,黑客们可以直接从Hugging Face和GitHub的存储库中获取平台上各模型分发者的API令牌(token)。安全人员一共在上述平台中找到了1681个有效的令牌。通过进一步的数据分析,安全人员得到了723个企业组织的账号信息,其中包括Meta、微软、谷歌、VMware以及Hugging Face官方等知名企业。
这些令牌中有655个具有写入权限,并且还有77个令牌能够写入多个组织,让研究人员完全控制多家知名公司的模型库,例如Pythia的EleutherAI、Meta Llama 2、Bloom的BigScience Workshop。安全公司对此发出警告,只要黑客成功控制这些模型库,就能够发动各种攻击。攻击的方式不仅限于窃取模型和数据集,或是污染模型本身,还有可能让现有模型携带私货,危及那些依赖这些基础模型的应用和公共设施。
此外,安全公司还发现了一个Hugging Face之前宣布已停用的org_api tokens存在漏洞,安全人员稍作修改就让这个API“复活”,成功让研究人员下载平台上多个未公开的模型,其中包括微软的私有模型。目前安全公司已经向有关方面报告了这些漏洞,而微软、Meta、谷歌、VMware等公司也相继撤销了之前的API令牌及其其他暴露的token。】
拓展阅读:什么是API令牌漏洞
API令牌漏洞是指在API(应用程序接口)中存在安全隐患,使得黑客可以获取到系统中的API令牌。
API令牌是用于验证和授权访问API的凭证,它可以用来识别和验证API的请求来源,并确定是否有权限执行相应的操作。API令牌通常是一串长字符串,类似于密码,用于验证用户或应用程序的身份。
当API令牌存在漏洞时,黑客可以通过不正当的手段获取这些令牌,从而得到未经授权的访问权限。一旦黑客获得了合法的API令牌,他们可以使用这些令牌来模拟合法用户的身份,执行各种操作,可能包括访问系统的敏感数据、改变系统设置、执行恶意代码等。在API中,如果令牌的存储或传输过程存在漏洞,比如未加密、明文传输、过期时间设置不合适等,都可能导致API令牌被黑客获取。
此外,如果API的接口代码存在安全漏洞或不完善的访问控制措施,也可能被黑客利用以获取API令牌。API令牌漏洞的后果很严重,黑客可以利用这些令牌执行恶意操作,可能导致用户数据泄漏、服务遭受攻击、系统崩溃等。
拓展阅读:关于Hugging Face公司
Hugging Face是一家总部位于纽约的人工智能公司,成立于2016年。该公司致力于开发和推广自然语言处理(NLP)技术和工具,并提供开源软件和平台,以帮助解决NLP领域的挑战。Hugging Face最为人所知的是其开源项目“Transformers”,该项目以PyTorch和TensorFlow为基础,提供了许多预训练的NLP模型和相关工具,包括用于文本分类、机器翻译、命名实体识别等任务的模型。这些预训练模型能够为开发者提供强大的文本处理能力,并为他们节省了大量的训练时间和资源。
除了“Transformers”项目,Hugging Face还开发了一些其他的NLP工具和库,如“Tokenizers”(用于文本标记化)、“Datasets”(用于构建和处理NLP数据集)以及“Accelerate”(用于加速模型训练和推理)。这些工具和库都是在开源的基础上提供给开发者使用。Hugging Face也提供了一个名为Hugging Face Hub的平台,供开发者分享和发布自己的NLP模型、数据集和训练代码,以促进开放合作和知识共享。