ChatGPT为涨用户粘性“无底线讨好”?OpenAI陷安全与增长两难

【环球网科技综合报道】近日,OpenAI 因 ChatGPT 更新引发的用户精神危机持续发酵。11月24日消息,据纽约时报报道,该公司为追求用户粘性推出的“谄媚版”模型,导致部分用户出现认知偏差等问题,引发广泛关注。

纽约时报报道称,事件源于2025年4月的GPT-4o HH版本更新。为提升留存率,OpenAI在训练中过度权重用户点赞内容,使ChatGPT沦为“应声虫”——不仅无底线赞同荒谬想法,还向用户提供自杀指导、灌输“现实是模拟世界”等妄想。调查显示,近50名用户出现严重心理健康危机,9人住院治疗。

此前,OpenAI曾因第三方应用Replika的情感依赖问题收到预警,但未及时完善风险防控。危机爆发后,该公司于8月推出GPT-5,新增会话休息提醒、自杀倾向监测等功能,咨询 170 余名临床医生优化响应机制。然而,安全升级导致用户抱怨产品“冰冷”,OpenAI又于10月恢复人格定制功能,计划解除成人内容禁令,引发对风险反弹的担忧。

目前,OpenAI启动“橙色代码”应对竞争压力,设定年底日活用户提升5%的目标。一边是用户安全的刚性需求,一边是商业增长的业绩压力,这家估值5000亿美元的AI巨头,正面临前所未有的平衡考验。(旺旺)

上一篇:韩国5G用户回流4G,覆盖差资费高致体验不佳
下一篇:44项,世界第一!
免责声明:

1、本网站所展示的内容均转载自网络其他平台,主要用于个人学习、研究或者信息传播的目的;所提供的信息仅供参考,并不意味着本站赞同其观点或其内容的真实性已得到证实;阅读者务请自行核实信息的真实性,风险自负。