ChatGPT 账户安全隐患:暗网泄露与企业风险
关键要点
去年,至少有225000套OpenAI凭证在暗网出售,可能被用来访问ChatGPT的敏感数据。在2023年1月至10月间,GroupIB的研究发现了因信息窃取恶意软件而被盗的ChatGPT账户。杀毒软件LummaC2是造成ChatGPT凭证泄露的主要源头,其次是Raccoon和RedLine感染。企业员工在使用生成式AI时面临高风险,47的人曾将敏感数据粘贴到ChatGPT中。OpenAI曾因漏洞数据泄露,导致部分ChatGPT Plus用户的敏感信息暴露。去年的一项研究指出,至少有225000套OpenAI凭证在暗网上出售,这些凭证可能会被用于访问ChatGPT上发送的敏感数据。
根据GroupIB于2023年1月至10月间的研究,因信息窃取恶意软件导致的ChatGPT账户被盗情况屡见不鲜,其发现结果在GroupIB的《高科技犯罪趋势报告 2023/2024》中发布。
被盗的凭证来自受LummaC2、Raccoon和RedLine等信息窃取恶意软件感染的设备,这些恶意工具会搜集储存在设备上的敏感信息,如登录凭证和财务信息。
根据GroupIB的研究,在研究的前五个月与最后五个月之间,泄露的ChatGPT凭证增加了36。在2023年6月至10月之间,发现了超过130000个感染主机,而在前五个月的数据稍低,不到96000个。研究最后一个月的OpenAI凭证被盗情况达到33080次。
恶意软件感染趋势
在2023年6月至10月期间,LummaC2是包含ChatGPT凭证的最常见信息窃取日志的来源,共计70484个案例,其次是Raccoon和RedLine,各自不足23000个案例。
这一变化与GroupIB之前的数据相对比,后者显示Raccoon是窃取OpenAI凭证的主要工具,感染数量超过78000个,紧随其后的是Vidar和RedLine,这些数据是基于2022年6月至2023年5月期间的情况。
GroupIB的威胁情报负责人德米特里舍斯塔科夫在去年的一份声明中表示:“许多企业正在将ChatGPT整合到其业务流程中,员工输入的机密信息或利用此机器人优化专有代码。鉴于ChatGPT的标准配置会保留所有对话,如果恶意演员获得这些账户凭证,可能会意外泄露一大堆敏感情报。”
海外npv加速器下载员工输入敏感数据
关于ChatGPT账户被盗的最新数据,正值企业员工在使用生成式AI时风险加大的背景下发布。
2023年6月,LayerX的报告发现,6的企业员工至少一次将敏感数据粘贴到了生成式AI应用程序中,4的员工则每周都有这样的行为。在这些曝光事件中,43涉及内部商业数据,31涉及源代码,12涉及个人身份信息PII。
另一项同样是2023年6月由Cyberhaven进行的研究专注于ChatGPT,其结果也十分相似。研究发现,47的员工曾在ChatGPT中粘贴敏感数据,并且在100000名员工中,向ChatGPT泄露机密数据的事件在3月4日至4月15日之间增加了604。
更近期的Menlo Security在2024年2月的报告中指出,从2023年7月至12月,企业员工尝试将文件上传至生成式AI网站的次数增加了80。这可能与OpenAI在10月份为高级用户新增直接上传文件到ChatGPT的功能有关。
值得注意的是,根据Menlo Security的
