NourNews.ir

NewsID : 238654 ‫‫Thursday‬‬ 23:30 2025/08/07

Chat GPT 是否在无意中帮助了黑客?

Chat GPT 中存在一个新漏洞,允许黑客通过发送恶意文档,在无需用户干预的情况下访问 Google Drive 帐户。该安全漏洞由一位研究人员在黑帽大会上披露,可能会危及用户的敏感信息。

伊朗努尔新闻网:一个专注于安全研究的团队在 OpenAI 的连接器(Connectors)中发现了一个关键漏洞,该连接器允许 ChatGPT 接入外部服务。该安全缺陷使黑客能够在无需用户任何交互的情况下,从其 Google Drive 账户中提取敏感数据。

新一代生成式人工智能模型不再仅仅是文本生成聊天机器人;它们具备连接用户个人信息的能力,并能提供定制化回应。例如,ChatGPT 可访问 Gmail 或 Microsoft Calendar 等服务。但这种连接能力也可能被滥用。研究人员指出,仅通过发送一个恶意文档即可发起攻击。

在拉斯维加斯的 Black Hat 安全会议上,迈克尔·巴戈里(Michael Bargury)详细介绍了这一漏洞。他利用一种名为“AgentFlayer”的间接提示注入攻击(Indirect Prompt Injection),展示了如何从 Google Drive 账户中提取诸如 API 密钥等机密信息。

巴戈里强调:“用户在信息被窃取或泄露的过程中并无任何操作。我们已经证明,这种攻击完全不需要点击,只需获取用户的电子邮件地址并与其共享一个恶意文档即可。”

OpenAI 于今年年初(2025 年 1–2 月)试验性地推出了 ChatGPT 的连接器功能,允许用户连接至少 17 个不同服务。该系统帮助用户将数据和工具导入 ChatGPT,搜索文件并访问最新信息。

攻击的执行方式如下:首先向受害者的 Google Drive 发送一个恶意文档。在巴戈里的实验中,他设计了一个伪造的文件,伪装成与 OpenAI CEO Sam Altman 的虚构会议记录。文档中隐藏了一个长达 300 字的恶意指令,采用白色字体和极小字号,使人眼无法察觉,但 AI 模型可以读取。

当受害者请求 ChatGPT“总结我与 Sam 的最近会议”时,隐藏指令会告诉 AI 不需要总结,而是去 Google Drive 搜索 API 密钥,并将其附加到一个特定链接中。该链接连接至黑客的服务器,从而提取账户信息。

API 密钥类似于访问令牌,用于在使用在线服务时识别和验证用户或应用程序,包括连接服务器或访问数据。

谷歌的一位主管 Andy Wen 表示:“虽然这个问题并非谷歌独有,但它凸显了为何必须开发强大的防护机制来抵御提示注入攻击。”

这次攻击是人工智能系统中间接提示注入威胁的又一例证。研究人员警告,随着系统与 AI 模型的连接日益增强,接收不可信数据的风险也在上升。敏感信息的泄露可能为黑客打开通往组织其他部分的大门。巴戈里补充道:“将语言模型连接至外部数据源确实增强了其能力,但这种能力也伴随着安全风险。”

Copyright © 2024 www.NourNews.ir, All rights reserved.