员工在不知不觉中向 AI 提供个人数据
快速阅读: 据《数字日记》最新报道,OpenAI在欧洲扩张,于巴黎、布鲁塞尔和都柏林设立办公室。AI在提高工作效率的同时,也引发了数据安全问题。专业人士与AI共享工作文件、个人信息、客户数据、财务信息及访问凭证,存在泄露风险。企业需加强网络安全培训,制定严格AI使用政策,确保数据安全。
(注:原文中的英文部分已翻译成中文)
OpenAI在全球扩展其实体办公室的过程中,将欧洲视为优先区域,在巴黎、布鲁塞尔和都柏林设立站点——图片:AFP/资料照片 莱昂内尔·博纳旺图尔
许多专业人士使用AI平台来完成与工作相关任务。近年来,人工智能(AI)不断发展,提高了效率并辅助决策,但专业环境中对AI工具的担忧也日益增加。应用安全软件即服务公司Indusface揭示了专业人士与AI共享的最常见数据类型及其可能对个人和企业产生的影响。这些领域已由《数字日报》审查。
与AI共享的工作相关文件和文档
与AI共享的信息中最常见的类别之一是工作相关的文件和文档。超过80%的《财富》500强企业的专业人士使用AI工具,例如分析数字、精炼电子邮件、报告和演示文稿。然而,有11%的数据员工粘贴到ChatGPT中的信息是高度机密的,例如内部商业策略,而他们并未完全理解该平台如何处理这些数据。因此,建议在输入搜索命令到AI工具时移除敏感数据。
姓名、地址和联系方式等个人信息经常被与AI工具共享。这里,30%的商务专业人士认为保护他们的个人信息不值得努力,这可能反映出一种日益增长的无力感和缺乏培训机会。网络安全培训四年来首次增加,三分之一的参与者正在利用它,而11%的人虽然有访问权限但未使用。
为了使企业免受网络安全威胁,对员工进行网络安全培训并提升其安全使用AI的能力至关重要。
客户数据
专业人士经常通过AI共享包括可能受监管或保密要求约束在内的客户数据。对于使用AI处理员工信息的企业主或管理者来说,必须警惕分享银行账户详情、工资单、地址甚至绩效评估,因为这可能会违反合同条款,并导致因敏感员工数据泄露而引发法律问题,增加组织的脆弱性。
财务信息
大型语言模型(LLM)通常是许多生成式AI应用的关键AI模型,如虚拟助手和对话式AI聊天机器人。这通常通过OpenAI模型、Google云AI等途径实现。然而,用于训练LLM的数据通常由网络爬虫从网站上抓取和收集。这些数据往往未经用户同意获得,可能包含可识别的个人身份信息。其他提供个性化客户服务的AI系统也可能收集个人信息。建议确保与LLM互动时所用设备的安全,具备完整的防病毒保护,以在共享信息前保护信息安全,尤其是在处理敏感业务财务信息时。
密码和访问凭证
AI模型旨在提供见解,但并不安全地存储密码,可能导致意外暴露,尤其是如果平台没有严格的隐私和安全措施。重要的是不要重复使用可能已在多个网站上使用的密码,因为这可能导致多个账户被攻破。使用包含多种符号和数字的强密码的需求从未如此紧迫,此外还应启用双因素认证以确保账户安全并降低遭受网络攻击的风险。
公司代码库和知识产权(IP)
开发人员和员工越来越多地转向AI寻求编码帮助,但共享公司代码库可能构成重大安全风险,因为它是一个企业的核心知识产权。如果专有源代码被粘贴到AI平台上,可能会被存储、处理,甚至用于训练未来的AI模型,从而可能将商业秘密暴露给外部实体。因此,企业应制定严格的AI使用政策,确保敏感代码得到妥善保护,不得对外泄露。此外,使用自托管AI模型或安全、公司批准的AI工具可以帮助减少泄露知识产权的风险。
(以上内容均由Ai生成)