有人上午被裁员,下午其AI分身即在公司群开启工作。近日,某些企业将离职员工数据“AI炼化”为“赛博员工”的现象,引发广泛争议。
“AI炼化”来自技术社区GitHub上的开源项目“同事.skill”。企业收集员工在工作期间留下的聊天记录、文档、邮件、截图等资料,通过人工智能大模型分析提取,将提炼出的经验封装成标准化的Skill文件,生成可替代其工作的数字员工。“同事.skill”一经发布便迅速爆火,还衍生出“老板.skill”“前任.skill”等产品。技术狂飙之下,“AI炼化打工人”已从一个实验室构想,迅速演进为摆在职场人面前的真实挑战。
“AI炼化”的核心问题首先是侵犯个人数据权益与数字人格权。员工的聊天记录、工作思路、沟通方式等,虽产生于职场,却与个人人格、思维习惯深度绑定,属于受法律保护的个人信息与人格利益。未经员工同意,企业擅自将其数据训练为AI分身,本质是对个人数字身份的强制占用,既违反《个人信息保护法》,也违背基本劳动伦理。离职原本意味着劳动关系终止,企业却想将员工的知识经验永久“数字化占有”,使其沦为无偿的“赛博牛马”,这显然是不合理的。
其次,“AI炼化”扭曲劳动价值,破坏职场公平。员工的专业能力、工作经验是长期积累的人力资本,具有人身属性。企业无偿“炼化”并持续使用,相当于把劳动力剥削延伸至数字空间和离职之后,变相掠夺劳动者的智力成果。若放任这种模式,会加剧职场焦虑,让员工担心“教会AI饿死自己”,也会导致企业减少对在职员工的培养投入,损害整体劳动力市场秩序。
此外,“AI炼化”还带来责任不清、知识产权混乱、数据安全等隐患。数字分身出错、侵权时,责任难以界定;职务成果与个人知识边界模糊,易引发知识产权纠纷;高度还原的数字分身,还有可能成为泄露商业秘密的新风险点。
但“AI炼化”并非全然不可用,关键在于合法、自愿、有偿。一是员工应完全知情并自愿授权,明确数字分身的使用范围、时限和用途;二是企业要支付相应版权或数据使用费,将员工的数字知识成果视为可交易的知识产权;三是允许个人主动“炼化”自身技能,以数字服务形式向企业或平台提供劳动并获取报酬,形成公平的数字劳务关系。
技术的可行性绝不等于伦理的正当性。只有建立在自愿与等价有偿基础上,“AI炼化”才具备伦理正当性。治理当前“AI炼化”乱象,需要多方协同发力。
法律层面,应进一步明确数字人格权保护规则,细化员工数据用于AI训练的授权标准,禁止未经许可的数字化“永久使用”,对侵权行为加大惩处力度。
监管层面,要加强对高风险AI职场应用的备案与审查,引导行业规范发展。
企业层面,必须坚守科技向善原则,开展伦理审查,坚持“最小必要”原则使用数据,杜绝无偿掠夺式“炼化”,构建合理的利益分配机制。
劳动者层面,也要加强AI科普宣传和普法教育,并设立公开的投诉救济渠道,帮助劳动者提高数字权利意识,让他们敢于拒绝不合理的数据授权条款。
技术进步不应成为漠视个人权益的借口。“AI炼化”可以提升效率,但不能牺牲尊严;可以创新用工模式,但不能突破公平底线。只有在法律框架内明确权利边界,在伦理约束下规范应用场景,让数字劳动得到尊重与回报,人工智能才能真正成为赋能职场、造福社会的正向力量。