人离职,"魂"还在工作,"龙虾"带来的智能体热潮,正以一种场景具象但观感抽象的方式走进日常。近日,山东一家游戏公司将离职员工训练成AI数字人继续工作的尝试,让"炼化同事"等相关话题冲上热搜。
将活生生的人变成可被无限复制的数字人,比之以往出现在视频节目里只能开口说话的数字人,又前进了一大步。人类理想状态下的"克隆人"似乎也从科幻走近现实。
"炼化同事"背后是开源项目"同事.Skill"的爆火。在"龙虾"智能体热潮中,Skill指的是通过模型训练与工具调用所习得的、可独立完成特定任务的具体操作能力集合。
AI对千行百业是重大机遇,带来不可避免的职场冲击,但比喧嚣和焦虑更深层的命题,绝非简单的取代与被取代关系所能概括。这个命题就是,AI上岗,我们是否已经为隐私保护、数据安全、商业伦理划定了清晰的权责边界?
这家公司"炼化同事"不是简单的员工形象复刻,而是通过采集离职员工的聊天记录、邮件、文档等工作痕迹,将其知识结构、语言风格乃至决策逻辑,沉淀为可被机器调用的智能体。
被采集的信息往往涉及个人隐私与敏感数据,个人信息保护要求遵循"最小必要"原则。尤其涉及雇佣关系结束后,公司继续使用员工在职期间产生的数据来训练AI,"知情同意"往往只是第一步。当然,这家公司获得了离职员工的明确同意,且测试仅限内部,尚未出现在公司对外业务中。
更复杂的权责博弈是当AI分身从内部工具走向公开服务。倘若数字人给出了错误指导、删除了关键数据甚至发表了不当言论,责任究竟该由谁承担?是设计算法的程序员,还是提供算力的平台?按情理,反倒是离职员工首先"免责"。
从历次科技革命浪潮的实践看来,技术超前会模糊责任主体,比如互联网发展的草莽时代,"避风港原则"往往被滥用。
AI的冲击更加猛烈,尤其这一技术对企业和员工敏感信息的掌控是底层性和系统级的,企业不能在享受AI降本增效红利的同时,再把事故发生用"算法黑箱"作为免责挡箭牌。
严格的审计追踪机制,必须建立在AI参与决策的初始阶段。让AI的动向有迹可循,并对高危操作明确复核环节,防止智能体成为脱缰的野马,应当成为尝鲜热情背后的冷静决断。
争议还在于商业伦理。AI数字技术对人的工具化"提取",将离职员工变成"赛博同事",是AI对人类经验与创造力的又一次冲击。当技术洪流不可逆转,人类一方面需要筑好安全堤坝,还要重新定义自身的Skill,才能在"赛博同事"规模化降临的时候,不至于教会徒弟饿死师傅。
北京商报评论员张绪旺