【壹明头条】|人工智能可以服务于同理心,而非取代它

将情感关注的工作委托给无意识的系统可能会削弱我们在这个破碎的世界中最需要保留的技能。
对于哲学家、天主教归依者、最终成为加尔默罗会修女的艾迪特·斯坦因(Edith Stein,1891-1942)而言,同理心不仅仅是一种情感,也不仅仅是一种设身处地为他人着想的心理活动。在她早期著作《论同理心问题》1917)中,斯坦因将同理心描述为一种独特的体验——既非想象,亦非推理。用她的话来说,同理心是一种直接的、有意识的意识行为,在这种行为中,我们被吸引到他人的情感生活中,同时又不会忽视他们独特的身份。
斯坦因观察到,当我们产生同理心时,我们不会复制或吸收他人的感受。相反,我们会立即感知到它们。我们看到朋友脸上的悲伤,并在那一刻感受到这种情感——不是我们曾经感受过的东西,而是他人身上新鲜出现的东西。
同理心是以第一人称视角体验他人内心世界。至关重要的是,同理心不会模糊自我与他人的界限。它让我们保持自我,同时真诚地、谨慎而克制地融入他人的生活体验。这种接近而非侵占的平衡,使同理心不仅是一种情感行为,更是一种道德行为。
之后,当我们消化所经历的一切时,我们会将情感感知与理性反思相结合。我们开始清晰地表达并理解他人正在经历的本质。对斯坦因而言,这种情感与理智的融合构成了主体间性的核心——真正的社群的基石。
在这个日益受到人工智能影响的时代,斯坦因的见解既美丽又具有警示作用。如今的人工智能系统能够做出看似具有同理心的回应。聊天机器人可以提供安慰的话语,算法可以识别声音中的悲伤或文本中的犹豫。这些回应听起来可能非常像人类。但斯坦因坚持认为,它们缺乏的是存在感。人工智能的情感语言,无论多么精妙,都并非根植于与他人真实体验的互动。它只是一种没有意识的模仿。
话虽如此,人工智能仍然可以服务于同理心,而不是取代它。人工智能工具可以建议更温和地表达难以启齿的事实,帮助真实的人以更富有同情心的方式沟通。当人工智能以这种方式被使用时——作为助手而非替代品——它可以增强甚至微调我们的注意力和关怀能力。
然而,支持与替代之间的界限很模糊,很容易跨越。真正的风险是,当我们习惯于机器模拟情感存在时,我们可能会失去真正的同理的习惯。将情感关注的工作委托给一个无意识的系统,可能会削弱我们在一个支离破碎的世界中最需要保持的技能:将他人的痛苦视为存在,而不是数据,并对其做出反应的能力。
斯坦因对同理心的理解既苛刻又令人自由。它呼吁我们不要抽象地去感受他人,而是在现实中陪伴他们(并被陪伴) ——以清醒的头脑与和谐的心灵去面对他们本来的样子。
从这个意义上来说,同理心绝不仅仅是效率或功能性的。它始终是一种爱的表达。在这个充斥着令人眼花缭乱的机器和快速响应的时代,她的想法提醒我们,没有什么能够取代真正人性化交流的深度。
——翻译+编辑ALETEA网
Daily Program
