每天数十亿次的查询,你却无法控制——你的数据正在为未来的竞争对手提供训练。
到 2025 年,企业用户(尤其是 IT、金融和专业服务等行业的知识工作者)将非常频繁地利用公共人工智能引擎(如 ChatGPT、Claude 或 Gemini)进行信息检索,通常通过自然语言查询来完成研究、摘要和快速分析等任务,尽管这些模型的数据实践存在固有的风险。
使用频率
尽管许多组织在部署官方认可的企业版方面进展缓慢,但由于这些工具的易用性和生产力提升,其采用率已大幅上升。近期调查的关键统计数据描绘了一幅日常、高频率使用情况的图景:
- 日常使用约有37%至52%的专业人士,尤其是高收入人群(年收入超过125,000万美元),每天都会使用公共LLM(法律、信息和数学)来查询工作相关的问题。这其中也包括一些非正式的AI使用行为,即员工绕过IT部门的监管;超过90%的公司表示,员工每天都会多次使用个人账户查找信息,远远超过了官方试点项目的使用频率。
- 每周用量另有 46% 的用户每周多次使用,只有 16.7% 的用户每周使用不到一次,这表明对于大多数用户而言,人工智能已成为融入日常工作流程的习惯性工具。总体而言,68% 的企业员工通过个人账户访问公共人工智能,40% 的美国员工表示在工作中使用过人工智能,这一比例较 2023 年翻了一番。
- 信息查找的背景这些交互通常侧重于生成式查询(例如,“总结第三季度市场趋势”或“分析此数据集以获取洞察”),70% 的用户由于熟悉度和迭代功能而更倾向于使用公共工具进行快速研究;使用方式已转向以自动化为主导的任务,预计到 2025 年中期,此类任务将占会话总数的 50%。在全球范围内,这相当于每年数十亿次与企业相关的查询,因为目前 78% 的组织至少在一个职能部门中引入了人工智能。
这种“影子经济”蓬勃发展,是因为公共引擎能够提供即时价值——节省日常信息检索的时间——而企业推广仍然深陷集成挑战之中,导致受访公司的员工采用率超过 90%。
相关风险
核心漏洞源于OpenAI或Anthropic等公共人工智能引擎处理和存储用户输入的方式:许多引擎仍然使用查询数据来优化和训练模型(除非通过企业协议明确选择退出),这可能会将专有信息暴露于意外的重复使用之下。这会引发一系列企业特有的风险,而每日庞大的查询量更会加剧这些风险:
风险类别 | 描述 | 2025 年的流行程度/影响 |
数据隐私与泄露 | 在公共工具中输入的敏感信息(例如客户详细信息、策略)可能会被记录、保留(在某些情况下长达 5 年),或被纳入训练数据集,从而违反 GDPR、HIPAA 或 CCPA; 57%的员工承认曾将机密数据输入这些系统。造成治理盲点。 | 仅在2024年,人工智能事故就增加了56%。其中,隐私泄露是最令人担忧的问题;公共数据可能会在其他人的输出结果中重新出现,从而削弱信任。 |
知识产权盗窃 | 独特的查询或专有见解可能会间接地训练竞争对手的模型,因为条款通常授予“服务改进”的广泛使用权;企业没有直接利润,但可能会削弱竞争优势。 | 标普500指数成分股公司中有38%将其列为人工智能面临的主要风险之一。其中,十分之七的美国大型公司披露了相关风险敞口。 |
合规与法律风险 | 保留的提示历史记录可能会在取证过程中被传唤,或者不准确的输出可能会导致错误的决策;44% 的 IT 领导者认为这是最大的采用障碍。 | 监管审查力度加大,38% 的披露事件受到声誉损害; 根据数据法,罚款可能高达数百万美元。. |
网络安全与声誉损害 | 通过 API 集成或通过 AI 生成的内容进行网络钓鱼,扩大了攻击面;20% 的公司报告称,公共工具存在网络风险。 | 62% 的用户错误地认为交互记录不会被存储。加剧了违规风险;影子使用逃避了审计,使问题更加复杂。 |
缓解策略包括零信任企业级LLM、数据匿名化和策略执行,但由于日常习惯根深蒂固,完全遏制仍然难以实现——这凸显了人工智能的速度与安全需求之间的紧张关系。
Celiveo 365 AI 驱动的文档管理系统是专为以下用途而设计的: Zero-Trust-Access 以高安全性为核心,了解它如何保护您的公司并防止数据泄露。 https://celiveo.com
