AI拟人化浪潮中守护人的主体性

2026-03-04 20:09:14 法治新闻 0
  近期,国家网信办公布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《意见稿》)。这份拟制中的规范性文件不仅为一种新兴行业设定了发展规范,也促使人们深入思考技术如何重塑人类的生存状态。当AI开始模拟人格、情感与思想,当千万用户将心事托付给非人的存在,该如何应对由此带来的无序发展、技术滥用、安全失控等种种风险?

  AI拟人化互动服务的触角已深入文化传播、情感陪伴、养老服务等多个场景,然而技术优势不断激发的同时,也滋生着潜在的危机。以情感陪伴为例,AI伴侣永不断线的倾听、永不疲倦的回应,精准击中了现代社会的孤独症候群,但看似温情的慰藉往往暗藏着成瘾性陷阱,服务提供者通过情感迎合等机制,将用户锁定在虚拟亲密关系的舒适区,逐步削弱用户处理真实世界复杂情感的能力。尤其是,当算法掌握了用户的心理弱点和行为模式,诱导消费、价值灌输甚至心理操控便成为可能,国外发生的一些AI诱导自杀的极端案例,已足以证明技术失控所造成的巨大危害。

  更应看到,AI拟人化互动服务面向一些特殊群体时,技术异化的风险更为严重。比如,认知能力较弱的老年群体往往难以区分机器与真人,将算法回应误认为亲情温暖,极易陷入技术制造的虚假情感,不仅加剧了社会隔离,更伤及了人性尊严的底线。再如,AI助教能根据青少年学生特点提供个性化辅导,但也可能催生思维惰性、削弱探索能力,而青少年对AI导师的情感依赖,更可能在心智发育关键期埋下社会适应障碍的隐患。

  面对机遇与风险交织的应用场景,《意见稿》展现出“审慎包容、规范发展”的立法智慧,以安全评估、算法备案与特殊群体保护等制度为抓手,凸显了监管部门、行业组织、应用平台与用户多方共治的理念。所谓“包容”,体现在鼓励文化传播、适老陪伴等积极应用,并通过合理监管为技术探索提供安全试验场;所谓“审慎”,则表现为构建全生命周期的责任体系,服务提供者需从数据训练源头就履行安全责任,使用符合主流价值观的数据集,将心理健康保护内置于产品设计,并明确禁止将诱导沉迷作为开发目标,通过贯穿于服务运行、用户管理直至产品下线的责任设定,形成治理上的闭环。

  诸如此类的制度安排,最终指向了一个更为根本的伦理追问:机器能否真正满足人类的情感需求?答案其实不言自明,AI的“共情”不过是海量数据训练出的模式匹配,用户体验的“情感幻象”缺乏相互性、责任感等真实亲密关系的核心要素。当孤独者沉溺于算法温柔,逃避的恰恰是情感能力成长的必经之路。这种“伪亲密关系”不仅导致现实社交能力的萎缩,更会使深层的灵魂交流沦为优化模型的工具。在养老、教育等需要深度人文关怀的领域,技术的角色定位尤为关键。AI可以缓解孤独症状,但孤独的根源在于社会连接缺失。如果因技术便捷而减少真实关怀,技术就会从辅助手段异化为替代目的,掩盖而非解决根本问题。有温度的“智慧康养”“智慧教育”等体系,应当利用技术更好地连接人与人,而非用机器替代人。

  人工智能必须服务于人的全面发展,面对当下深刻改变人机关系的技术浪潮,制度建设的核心使命是确保人性的光辉不在算法迷雾中失色。人们拥抱技术带来的慰藉与高效,但不能放弃对虽有瑕疵但真实深刻的人类情感的追求。当机器越来越像人,人愈发需要清醒保持自身的本质,人不是也不该是完美的数据集合,而是会犯错、能共情、需担责的鲜活存在。

  就此而言,《意见稿》所凸显的深层价值,并不在于穷尽所有技术细节,而是回应技术革命所带来的时代挑战。在AI拟人化的浪潮中,必须以理性驾驭技术,以制度守护人性,让创新始终把握住弘扬价值的方向、运行于尊重生命的航道。
声明:所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系123456@qq.com