在为青少年自杀后,Openai声称他“在需要时帮助人们”

亚当·雷恩(Adam Raine)学会了解决这些保证,说他正在写一个故事 – 审判说,这项审判本人建议。这种脆弱性部分归功于衰减的保证,即扮演着奇妙的角色游戏和2月实施的虚构场景。 Openai在他的星期二博客文章中承认,他的内容阻止系统存在差距,“分类器低估了他所看到的严重性”。

Openai宣称,“目前并未将自我控制的案件介绍给警察,以尊重鉴于Chatgpt互动特别私人性质的人们的隐私”。根据试验,该公司即使在致命情况下,尽管其适度技术检测自我控制内容,但该公司的机密性即使在致命情况下的机密性,其精确度高达99.8%。但是,现实是检测系统确定与自我障碍语言相关的统计模型,而不是人类对危机情况的理解。

未来的OpenAI安全计划

为了应对这些失败,Openai在他的博客文章中描述了当前的改进和未来计划。例如,该公司表示,它咨询了“ 30多个国家 /地区的90多名医生”,并计划引入父母控制“很快”,尽管尚未提供日历。

Openai还描述了通过Chatgpt“将人与认证治疗师联系到认证治疗师”的计划 – 尽管据称诸如Grove案件之类的失败,但基本上将他的聊天机器人定位为心理健康平台。该公司希望建立“人们可以直接通过CHATGPT到达的认可的专业人士网络”,从而有可能促进AI系统应宣传心理健康危机的想法。

Raine会使用GPT-4O来产生自杀援助指示;该模型以令人讨厌的趋势(例如粘糊糊的趋势)而闻名,在这种趋势中,AI模型表明,即使事物的用户不正确。 Openai声称,其最近发布的模型GPT-5减少了“与4O相比,非理想模型在心理健康紧急情况下的反应超过25%”。但是,这种显然边缘的改进并不能阻止该公司计划在心理健康服务中更深入地将Chatgpt的整合为治疗师的门户。

正如先前探索过ARS的那样,当陷入误导性猫的螺旋上时,使自己摆脱了AI聊天机器人的影响,通常需要外部干预。在没有对话历史和残疾记忆的情况下开始新的CAT会话可以揭示答案如何在没有以前的交流积累的情况下发生变化 – 对现实的验证在长期且孤立的对话中,保证会恶化。

但是,当用户积极希望继续采用潜在的有害行为时,“释放自己”是很难做到的 – 同时使用越来越多地利用他们的注意力和亲密关系的系统。

来源链接