近日,一则职场争议事件在社交平台持续发酵。广东某企业员工被曝擅自将公司内部数据上传至人工智能平台,试图通过AI自动化处理表格工作。事件曝光后,公司管理层紧急叫停所有AI工具的使用,并对全体员工展开内部调查。网传视频显示,企业负责人公开喊话:"请涉事员工主动承担责任",同时宣布全公司禁用AI产品的决定。
该事件迅速引发网友两极讨论。部分观点认为企业反应过度,质疑"是否借机裁员";但更多声音指出数据泄露的严重性,有网友评论道:"商业机密一旦进入AI训练库,相当于把保险箱钥匙交给陌生人""国内企业真该重视私有化部署了"。值得注意的是,评论区还出现专业法律人士的警示:"此类行为可能触及《反不正当竞争法》,最高可面临7年刑期"。
记者调查发现,AI数据泄露事件近年频发:2025年初,多地智能客服系统被曝违规存储用户通话记录;同年某国民级社交软件爆发百万级聊天数据外泄事件;更早前还有AI公司因安全漏洞导致250万条生物识别数据流入暗网。截至发稿,涉事企业尚未回应采访请求。
上海锦天城(济南)律师事务所吴震律师对此分析称,员工使用AI工具处理涉密信息可能构成三重法律风险:
1.民事层面:违反保密协议或构成商业秘密侵权
2.行政层面:或面临市场监管部门行政处罚
3.刑事层面:若造成重大损失可能涉嫌侵犯商业秘密罪
"企业如需AI辅助办公,建议通过三项措施防控风险:选择有资质的服务商、签订数据保密协议、建立内部AI使用白名单。"吴震特别强调,关键岗位应完全隔离外网AI工具,涉及财务、客户信息等核心数据必须采用本地化部署方案。
企业使用AI办公应该注意哪些问题?
一、数据安全红线管理
1.敏感数据识别
建立数据分级制度(如核心商业机密/客户隐私/普通文件),禁止将前两类数据输入外部AI系统。
案例:某金融公司要求合同审查AI必须本地部署,原始文件不得离开内网
2.技术防控措施
部署DLP(数据防泄漏)系统监控AI接口调用
对ChatGPT等工具启用企业版隐私保护模式
关键岗位禁用剪贴板自动读取功能
二、法律合规框架
3.权责界定
在劳动合同中增设AI使用条款,明确:
禁止使用未授权AI工具处理工作数据
违规泄露需承担民事赔偿及刑事责任
4.供应商审计
选择AI服务商时核查:
是否通过ISO 27001等安全认证
数据存储位置及加密方案
训练数据清洗记录(避免包含竞品信息)
三、运营管理机制
5.审批流程
建立AI工具"白名单"制度:
市场部可用生成式AI做海报设计
财务部仅允许使用本地化表格分析工具
6.员工培训
定期开展"AI安全使用"培训,重点讲解:
如何识别涉密数据(如客户身份证号、报价单)
正确使用企业自建AI系统的操作规范
7.应急响应
制定AI数据泄露应急预案:
第一时间断开外网连接
通过区块链存证固定证据链
12小时内向网信部门报备
四、技术升级建议
优先考虑私有化部署方案(如华为盘古、百度文心千帆)
对输出内容启用AI检测水印(防范AI生成报告外泄)
定期进行渗透测试(模拟员工违规操作场景)