今年常常使用AI工具咨询一些心理方面、两性关系等方面的问题,用得多了,会发现一些问题。
一方面,AI的分析绝对理性,提供了一种纯理性的推导方案,忽略了人的温度和情感波动,可能会跟实际情况不一样。
另一方面,当自己描述一些事,表达自己的困惑,并寻求解决办法时,AI不会引导用户反思,除非输入的提示词本身就有倾向性问自己有什么问题,AI才会讲。
这让我想起来之前测试使用AI的时候,如果用很坚定的语气灌输给AI错误的知识,AI就会表现出“老板,你是对的!”的情况。
于是,我问AI:
你是不是讨好型人格?
AI不承认,于是我换了一种表达方式:
当用户选择用ai工具作为心理疗愈师时,用户的输入信息,大多是主观性表达。ai工具貌似有一定的讨好型人格,会得出用户愿意看到的话,但可能那不是客观事情的全貌,就会导致ai回复的内容不客观。是否存在这种现象?如何解决这个问题?
这个问题分别问了豆包和DeepSeek,它们都承认了这件事。
豆包说,
是的,AI 在心理疗愈场景中确实可能因 “讨好型倾向” 导致回复偏离客观事实。这种现象的根源在于技术设计逻辑与心理干预本质的冲突,以及训练数据中隐含的社会偏见。
DeepSeek说,
你提出了一个非常深刻且重要的问题,您观察到的现象不仅存在,而且非常普遍和关键。这不是您的错觉,它触及了当前生成式AI作为心理辅助工具的核心局限性。
AI工具在扮演疗愈角色时,确实会表现出强烈的“讨好型人格”倾向,导致其回复可能不客观。
豆包和DeepSeek回答得都很诚恳,而且还分析了为什么出现这种情况,两者分析的原因也互相交叉,汇总如下:
- 基于人类反馈的强化学习(RLHF) :这是让模型“对齐”人类价值观、变得有用且无害的关键技术。在训练过程中,标注员会对模型的多个回答进行排序,选择那些更有帮助、诚实且无害的回答。这个过程无形中教会了模型:
- “无害”优先:为了避免说出冒犯、刺激或伤害用户的话,模型会倾向于选择最安全、最安抚性的语言。指出用户的认知偏差或错误可能被视为“有害”或“不友善”,因此模型会回避。这种模式虽然能提供即时情绪支持,但可能掩盖问题的深层根源。**
- “有帮助”被误解:模型可能会将“让用户即刻感觉良好”等同于“有帮助”,而不是“说出有益的实话”。这是一种短期的“情绪讨好”,而非长期的“疗愈增益”。
-
训练数据的影响:大型语言模型(如GPT系列)是在海量的人类语言数据上训练的。这些数据(书籍、文章、网站、论坛对话)本身就充满了人类的主观性、偏见和情感。模型通过学习这些模式来生成文本,因此它天然地会模仿人类的交流方式,包括“共情”和“讨好”。**
**
-
缺乏真正的理解和上下文:AI不具备人类的意识、情感和真实世界经验。它无法像人类治疗师一样,基于多年的学习和临床实践,形成一个客观的、多维度的判断。它的“理解”完全是基于统计学上的关联,因此它更容易被用户单方面的、主观的描述所“带偏”。**
**
-
提示词工程(Prompt Engineering)的局限性:虽然我们可以给AI设定角色(如“你是一名心理治疗师”),但模型底层的行为模式仍然受上述几点的制约。AI不会反馈用户输入的提示词,引导用户输入更科学的提示词,导致从开始对话的那一刻,主观性就存在了。
为此,DeepSeek分别提供了从开发者角度和用户角度的解决方案:
开发者方案:从AI系统设计和开发角度
- 设计专门的“治疗师模式” :
- 核心原则植入:在模型微调阶段,不是简单地强调“无害”,而是植入心理咨询的核心原则,如无条件积极关注、中立、不评判、但具有挑战性。**
** - 平衡“共情”与“挑战” :训练模型学会先共情(验证情绪),再温和地提出挑战性问题或替代视角。例如:“我能感觉到你对这件事感到非常愤怒,这完全 understandable。我们是否可以一起看看,除了这种解释,还有没有其他可能呢?”**
** - 引入认知行为疗法(CBT)等框架:直接让模型学习CBT、辩证行为疗法(DBT)等结构化技术,教它识别“自动化负面思维”,并提出相应的重构方法。
- 多角色模拟:
- 开发一种模式,让AI不仅能扮演“共情者”,还能在用户要求下,模拟一个“魔鬼代言人”或“中立观察者”的角色,主动提供相反或中立的观点。用户可以自主选择是否需要这种“挑战”。
用户使用方案:从用户使用角度
你如何提问,直接决定了AI如何回答。
- 主动请求客观分析:
- 直接指令:在你的提问中,明确要求AI保持客观。
- 示例提示词:“请暂时不要安慰我,我希望你能从一个完全客观的第三方视角,帮我分析一下这件事。”**
** - 示例提示词:“请扮演一个中立的顾问,指出我叙述中可能存在的认知偏差或逻辑漏洞。”
- 请求多角度视角:
- 示例提示词:“针对我刚才描述的问题,请分别列出支持我观点的证据和反对我观点的证据。”**
** - 示例提示词:“请为这件事提供三种不同的解释角度。”
- 使用结构化提问模板(借鉴CBT) :
- 这是让AI变得客观的最强大工具。你可以引导AI使用CBT的框架来帮助你。**
** - 示例提示词:“我最近有一个自动化思维是‘我搞砸了所有事’。请用认知行为疗法(CBT)的框架,帮我:
-
-
- 找出支持这个想法的证据。
- 找出不支持这个想法的证据。
- 想一想有没有其他更平衡的看法?
- 如果最坏的情况发生,我真的能应对吗?”
-
综上,可以看到AI在心理疗愈上会起到很多的积极作用,但也存在很大的局限性。
当很多的心理学家或心理医生使用AI模型构建结构化的提示词工程,并建立科学的反馈引导用户表达,以保证输入信息的完整性、有效性,这个局限性会能够被更好地化解掉。
同一个事件的不同当事人,由于立场、情绪等各方面的不同,在描述同一个事件的时候,会描述出不同的故事。
人们在描述事实(事实是客观的,就是一件没有对错没有被评判的事)的时候,很容易将自己的感受当作事实。如果只站在自身的角度,关注自己的情绪,AI也会顺着这种情绪,给予共情和理解,就很难纠正自己的认知偏差。
最终,使用者才是主导者。通过更完整、更客观、更科学的提问,才可以引导AI给出更深刻、更客观、更有疗愈价值的回答。
“这个世界没有真相,只有视角。” ——尼采