• 最近访问:
发表于 2025-11-06 02:21:50 股吧网页版
很遗憾,“AI不会成为治疗者” 生成式AI让心理健康服务更普惠,但暂时难堪大任
来源:每日经济新闻

  至少60年前,人类就已经尝到了与“数字心理医生”对话的滋味。

  20世纪60年代,麻省理工学院的约瑟夫·魏泽鲍姆(Joseph Weizenbaum)教授模拟了一个心理医生ELIZA,通过简单的语言模式与用户对话,让患者自己暴露内心、获得情感抚慰。不过,ELIZA并不能真正理解情绪,而是通过算法将对话引向特定模式。

  时光荏苒,人工智能浪潮几起几落,“数字心理医生”也从最初的算法规则匹配,发展到如今大模型和智能体的多模态应用,人们致力于让机器与人类“共情”。

  AI正从实验室走向真实个体的心灵。然而,如何平衡普惠化应用与伦理安全,成为摆在科技与医疗交叉口的一道时代命题。

  近日,香港中文大学教授、电气与电子工程师学会会士(IEEE Fellow)、美国计算机学会会士(ACM Fellow)邢国良在接受《每日经济新闻》记者采访时指出,AI要真正成为“心理健康的基础设施”,仍需跨越伦理、安全与技术等多重挑战。他直言,AI不会成为治疗者,但可以成为陪伴者。

  受限于技术缺陷,业内呼吁严格限制AI对患者的直接行为建议,不让AI直接给患者任何具体的行为指导。此外,从临床需求来看,应推动AI从通用模型向专业化、多模态系统进化。

  但通过AI在心理照护方面的实践,能获得更具启发性的思考:如何重估“真正的智能”,它也许不是回答一切,而是知道何时该沉默。

  生成式AI开启“心灵普惠时代”

  研究显示,在我国,有心理问题的人数在2亿~3亿,其中超5400万人患有抑郁症,泛心理问题人数高达9500万。

  随着消费者心理健康意识不断增强,以及在线泛心理健康服务平台蓬勃发展,预计心理健康服务市场将实现快速发展。弗若斯特沙利文预计,2025年中国泛心理健康服务市场规模将达到104.1亿元。

  与此同时,专业心理治疗资源紧缺问题持续存在。在很长一段时间里,心理援助可以说是属于少数人的奢侈品,专业心理医生数量有限、服务价格高昂、地域分布不均,将大部分人挡在门外。

  长久以来,人们对通过技术改善心理健康服务的探索从未停止,但真正的转折点,或许正在生成式AI的到来中出现——它不仅能让心理咨询服务变得更加普惠,也能在情感陪伴、心理干预等环节上,为人类提供新的技术支撑。

  聆心智能CEO郑叔亮在一次公开分享中提到,生成式人工智能的出现,是AI从“理解”到“共情”的重要转折点。就像孩子真正学会做题那一刻一样,当AI能够在理解人类情绪的基础上生成恰当的回应,它才真正具备了陪伴和疗愈的潜力。

  不过,需要注意的是,在临床实践中,更深层的挑战并不在于“陪伴”的缺口,而在于“诊断”的复杂性。

  上海交通大学计算机学院副研究员吴梦玥在一场分享会中指出,精神疾病与生理疾病的不同在于“没有生物标记物”,例如,糖尿病可以通过测血糖来客观诊断,精神疾病的诊断高度依赖医生的问诊和量表,使得诊断本身就面临差异性。

  AI的出现,在这片主观经验与高昂成本交织的领域,提供了一种全新的可能性。

  与传统心理服务相比,AI工具的优势之一或许就在于低门槛与规模化优势。邢国良指出,只需一部手机或一款应用,用户即可获得初步的情绪理解与压力管理建议,服务成本极低,且互动压力小。

  这种低成本的方式,正在打破心理援助的稀缺壁垒,将心理援助推向大众。“不少用户面对人类咨询师时存在羞怯、顾虑,AI提供的是‘低压对话环境’,尤其适合情绪尚不严重但有倾诉需求的人群。”邢国良补充道。

  IEEE数字金融与经济标准委员会专家委员、桐元软件CEO胡凝也认为,AI的“非人类”身份在某些情况下会成为独特的优势,让某些患者放下对同类的戒备心理,更容易建立信任和沟通。

  AI不会成为治疗者

  一方面,AI正让心理服务的门槛一点点降低,但另一方面,当AI从一个“博学的助手”尝试扮演更积极的角色时,其固有的技术缺陷便暴露无遗。

  幻觉问题是当前AI行业公认的隐忧。所谓幻觉,是指模型生成了看似合理、实则错误的信息。

  在心理健康领域,机器的幻觉,比人的幻觉更难察觉,因为它披着理性的外衣。但与此同时,在这一对语义敏感度和准确性要求极高的场景中,幻觉可能直接误导患者,甚至造成心理伤害。

  吴梦玥提到了当前心理诊疗的一大难点——当前精神疾病诊疗手册中关于抑郁情绪的描述,与人们表达“我现在心情不好”之间存在一个巨大的语义鸿沟,它是个人自然语言表达与结构化的临床文本之间的鸿沟,这种理解错位本身就极易导致误导性建议。

  其次,医疗大模型的另一个难点在于“实践智慧”的缺失。吴梦玥提到,临床决策中常有两难情节,在两个冲突的伦理原则间做权衡,这依赖医生的“实践智慧”。

  AI在面对这类没有标准答案的灰色地带时,其幻觉带来的影响可能很难估量。

  “这是AI在心理健康行业公认的难题。”邢国良表示,尤其在心理健康这种对内容准确性和语义敏感度要求极高的领域,更应格外谨慎。

  胡凝提出了一个辩证的观点。她认为,有时候,符合患者认知的“幻觉”可能有助于情感安慰。“在心理疏导和客观事实之间,有时需要优先考虑患者的情感需求”,但这需要专业判断,不能滥用。

  在临床应用中,专业人士对于AI输出内容的可控性和安全性有着极高要求。邢国良强调,AI不会成为治疗者,但可以成为陪伴者。他认为,AI将首先在情绪监测、早期筛查、轻度疏导等领域实现落地。“在引导性对话中,应设置明确的‘底线机制’,例如识别(出)风险行为时立即提示专业干预。”目前,其团队正在尝试通过端侧建模和数据匿名化策略,防止情绪识别过程本身造成新的心理负担。

  为规避风险,胡凝主张,应严格限制AI对患者的直接行为建议,不让AI直接给患者任何具体的行为指导,避免因理解偏差造成危险,因为一旦出现问题,很难明确责任归属。对医生而言,AI系统则必须确保其建议过程透明、可验证,提供来源依据和核实工具。

  武汉大学精神卫生中心主任、教授、主任医师王惠玲的临床经验也印证了这一点。她在评价AI模型给出的治疗建议时,特别提到其亮点在于逻辑清晰,符合临床思维以及治疗策略有据可循。尽管如此,王惠玲也指出,AI在策略制定中应更加重视患者不良风险,建议增加自杀干预相关的应对策略等。

  为了在技术上“锁住”幻觉,行业正积极探索解决方案。

  胡凝提议,可以通过检索增强生成(RAG)与专家混合(MoE)等机制,让多个系统相互监督,以降低幻觉率。

  邢国良则认为,AI最具潜力的落地形式可能不是模仿心理医生的AI,而是嵌入日常生活的轻量化系统。比如,通过音频、活动、交互频次等行为信号在本地做推断,为用户推送“温和提醒”或“转介建议”,这类非侵入式干预在伦理和实践层面更容易被接受。

  临床需求:AI心理应用应从通用走向专用

  当前的AI心理应用大多基于通用模型,它们擅长语言,却看不懂表情、语气、姿势,也缺乏长期记忆。它们无法知道用户的情绪在昨天是怎样的、今天为何不同,而这恰恰是心理健康中最关键的线索

  因此,从通用走向专用,就成了产业的现实选择。

  邢国良认为,当前模型往往只能处理用户明确表达的信息,对语气、行为、表情等复杂语境感知不足;同时缺乏长期记忆能力,无法形成持续的心理画像;在文化和成长背景的理解上也不够敏感。

  胡凝也认为,通用模型虽能辅助专业人员,但难以满足不同患者复杂而独特的心理需求。“传统的通用模型无法充分理解每个患者独特的主观体验”,真正的心理AI系统,应从分类诊断走向对心理状态的多维和流动的动态理解,这要求系统能够具备模拟多样认知模式、整合多模态数据的能力。

  临床的需求则更为迫切和具体。王惠玲描述了精神科诊断的难点:“我们的特点与皮肤科不一样。其中之一是不能一眼看到,得医生去挖掘才能找到这个点。”她提到,一名抑郁症患者对着镜子练习“标准化微笑”,“我们医生都看不出来他是个抑郁症,都觉得他的笑是发自内心,但其实他是抑郁”。

  “所以,如果AI能帮助我们做数字听诊器的工作或者数字标志物的工作,这个对我们是非常重要的。”王惠玲迫切希望能有客观工具,帮助医生捕捉患者面部表情、语音语调、姿势动作等的细微变化。

  这种临床的迫切需求,正推动AI从通用模型向专业化、多模态系统进化。

  “未来的心理健康AI必须是‘多模态+多源感知+用户可控’的系统。”邢国良表示,这意味着AI需要与穿戴设备、端侧传感器、生理和行为数据融合。在这一方向上,邢国良团队已孵化出Nuna智能吊坠(Nuna Smart Pendant)等可穿戴产品。该设备可通过语音与生理信号推断用户的情绪变化趋势,并在端侧提供轻量化的反馈与提醒,帮助用户在日常生活中进行情绪调节。邢国良指出,这类“嵌入式”设计能在保护隐私的前提下提供温和支持,“让情绪关怀真正成为生活的一部分”。

  重估AI价值:真正的智能是知道何时该沉默

  更深层的变化在于理念的转向,心理健康照护正从标准化走向个性化。

  “传统心理健康护理往往依赖固定的诊断标签,就像给每个人贴上统一的标签。”胡凝指出,AI的价值,不仅在于通过分析行为、生理和环境的各种数据,发现人眼难以捕捉的细微变化,帮助医生“看见”患者内心的微妙变化,更在于帮助患者理解自我、重新融入社会。

  胡凝认为,真正的心理AI系统,应具备模拟多样认知模式的能力,“对患者行为模式和认知进行总结归纳,帮助临床医生理解他们未曾亲身经历过的认知模式”。同时,系统也需要“对病患可能的危险行为进行模拟和预测”。

  当AI具备了这种深度理解能力,其最终目标也不再仅是诊断,而是成为连接患者与现实的桥梁。

  胡凝提到了桥接现实的技术理念,即当患者的主观感受与现实社会存在较大差异时,AI能创造介于两者之间的桥接空间,用患者能理解的方式解释社会规则,同时用社会能接受的方式表达患者的需求。

  这种深度融合的另一面,同样面临极大的隐私挑战。

  邢国良强调,技术机制必须服务于人的信任。他认为,AI在心理健康中的最大风险来自数据使用边界模糊与隐私保护缺位,用户缺乏对数据如何被使用的控制力、模型训练可能放大社会偏见以及云端处理难以完全脱敏或避免泄漏。

  在人机协作的终极形态中,机器的智能与人类的智慧缺一不可,真正的智能,也许不是回答一切,而是知道何时该沉默。

  邢国良直言:“AI本质上不具备真正的‘共情’,但可以模拟出共情行为,这对心理辅助场景尤为重要。”他认为,关键在于通过技术设定、语气控制和容错机制,让模型“知道何时该沉默”,在关键情绪节点“止步于不懂,而非强行输出”。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500