“你好,我是已离职员工XX的数字分身,你可以向我提问”——最近,一种运用人工智能技术,将人的思想和风格提炼成skill(技能包)的开源项目,在网络上引发广泛关注。这种做法,也被人形象地称之为“人格蒸馏”。当一个人的说话语气、工作经验都被AI提炼出来,封存在一台台冰冷的机器里,24小时对外运行——这究竟是科技魔术,还是赛博邪术?考验着技术边界和AI伦理。
“人格蒸馏”受到关注,与两个新闻事件密切相关:一是某开源代码托管平台上,开源项目“同事.skill”意外走红,开发者收集离职同事的飞书消息、钉钉文档、工作邮件等职场数据,通过AI训练与模型蒸馏,打造出复刻其工作逻辑、沟通风格的AI数字人,替原主继续在岗“上班”。二是一个名为“张雪峰.skill”的AI技能包悄然上线。该项目通过“蒸馏”已故考研名师张雪峰的著作、采访与语录,试图复刻其思维框架与表达风格,实现所谓“赛博复活”。当一个人刚刚去世,其人格符号便被迅速转化为可调用的数字资产,这让许多网友直呼“细思极恐”。
其实,AI领域的“蒸馏”,说起来并不复杂,就是用AI把一个人散落在聊天记录、文档、代码中的思维方式,浓缩成一套可复用的框架。正因为技术门槛不高,一些网络社区也掀起了skill制造潮,“前任.skill”“老板.skill”“导师.skill”等技能包接连涌现。一场以效率为名的技术狂欢愈演愈烈,却少有人停下来追问:这场看似有趣的技术实验,是否越过了应有的伦理边界。
且不说“人格蒸馏”本身容易出现“幻觉”、形成误导,这种技术狂欢更令人不安的,是对个人权利与人格尊严的漠视。离职员工的聊天记录、工作习惯、经验积累,绝非单纯的职场数据,而是受法律保护的个人信息与人格权益。有网友在社交媒体上尖锐发问:我花了三年踩坑积累的经验,凭什么离职后就变成公司的永久资产?根据《中华人民共和国个人信息保护法》规定,收集、使用个人信息必须征得本人明确同意,未经授权抓取个人数据训练AI模型,已涉嫌触碰法律红线。
还需要警惕的是,当人的知识、风格乃至人格被肆意拆解,数据化、商品化、标签化,人便悄然从价值主体沦为工具手段,从完整个体变成可供开采、加工与交易的“数字原材料”。这种“数字异化”,潜藏着对职场生态与人文关怀的深度侵蚀:当职场协作从人与人的沟通互动,变成人与“skill”数字包的机械交互,职场便彻底失去了应有的温度与共情。复杂的人际协调、临场的灵活判断、突发问题的创新解决,这些无法被标准化提取的柔性能力,恰恰是职场协作与成长的核心。
哲学家康德说,人是目的,不是手段。技术本应是服务人的工具,而非异化人的枷锁。AI的核心价值在于放大人类的能力、拓展人类的边界,而非简单复刻、替代人类。在AI技术飞速迭代的今天,我们更需牢牢守住伦理的底线,明确技术应用的边界。唯有让技术始终服务于人,充分尊重人的权利、尊严与价值,才能让科技创新真正走向良性、健康且长远的发展轨道。