
据Harmonic公司称,提示尽管GenAI工具具有潜力,敏感面临但许多企业由于担心敏感数据被无意共享并可能用于训练这些系统,数据而犹豫是风险否全面采用这些工具。
GenAI中的提示敏感数据暴露问题一项基于数万名商业用户提示的新研究揭示,近10%的敏感面临提示可能泄露敏感数据 。
Harmonic Security在2024年第四季度对这些提示进行了分析,数据并监控了包括Microsoft Copilot、风险OpenAI ChatGPT、提示Google Gemini 、敏感面临Anthropic的数据Claude和Perplexity在内的GenAI工具的建站模板使用情况 。
在绝大多数情况下,风险员工使用GenAI工具的提示行为是直接的。用户通常会要求总结一段文本 、敏感面临编辑博客或编写代码文档,数据然而 ,8.5%的提示令人担忧,并可能使敏感信息面临风险 。
在这些提示中,45.8%可能泄露了客户数据 ,如账单信息和认证数据,另有26.8%包含员工信息 ,源码库包括薪资数据、个人身份信息(PII)和就业记录,一些提示甚至要求GenAI进行员工绩效评估 。
其余提示中,法律和财务数据占14.9% ,这包括销售管道数据 、投资组合以及并购活动的信息 ,与安全相关的信息占敏感提示的6.9% ,尤其令人担忧。
示例包括渗透测试结果 、网络配置和事件报告,这些数据可能为攻击者提供利用漏洞的蓝图 。模板下载最后,敏感代码 ,如访问密钥和专有源代码 ,占其余5.6%可能泄露的敏感提示。
免费的GenAI服务构成安全威胁同样令人担忧的是 ,大量员工使用GenAI服务的免费版本,而这些版本通常不具备企业版本的安全功能 。许多免费版本工具明确表示,它们使用客户数据进行训练,这意味着输入的源码下载敏感信息可能被用于改进模型。
在评估的GenAI模型中,63.8%的ChatGPT用户使用的是免费版本 ,而使用Gemini的用户中有58.6% ,使用Claude的用户中有75%,使用Perplexity的用户中有50.5% 。
“大多数GenAI的使用是平凡的亿华云