您的位置: 首页> 新闻资讯> OpenAI正动态调整GPT-5发布策略——以下是ChatGPT的最新变化

OpenAI正动态调整GPT-5发布策略——以下是ChatGPT的最新变化

时间:2025-08-20 15:00:02 来源:互联网

OpenAI上周推出其最先进AI模型GPT-5的举措,对这个拥有7亿周活跃用户的全球最受欢迎聊天机器人平台而言不啻为一场压力测试——截至目前,OpenAI正公开承认难以为用户提供满意服务。

这款拥有四种速度与智能等级变体(标准版、mini版、nano版和pro版)的新旗舰模型GPT-5,其中至少三个版本还配备长响应模式和更强"思考"模式,本应提供更快速响应、更强推理能力和更优代码生成

现实却令人沮丧:部分用户公开抗议OpenAI突然移除旧版底层AI模型(这些模型用户曾深度依赖甚至产生情感依附),更指责GPT-5在数学、科学、写作等领域的表现明显逊于旧版模型

此次发布暴露出基础设施承压、用户不满,更引发全球关注的新隐患:部分人群对AI日益加深的情感依赖及随之而来的现实认知偏差,这种现象被称为"ChatGPT精神错乱"

从问题频出到渐进修复

万众期待的GPT-5模型家族在8月7日周四的直播发布会中亮相,期间演示图表频现错误,语音模式也出现故障。

但更令用户不满的是,OpenAI强制弃用了支撑ChatGPT的旧版模型——GPT-4o、GPT-4.1、o3、o4-mini和o4-high,强制所有用户迁移至GPT-5,且不说明其查询被分配至何种"思考"模式版本。

早期使用者报告GPT-5存在基础数学逻辑错误、代码生成不稳定,实际表现不及GPT-4o

需说明的是,旧版模型GPT-4o、o3、o4-mini等仍对OpenAI付费API用户开放

周五,OpenAI联合创始人Sam Altman承认发布"比预期更坎坷",归咎于GPT-5新型自动"路由系统"故障——该系统本应将提示词分配至最适配版本。

Altman表示"自动切换器"当日宕机数小时,导致模型表现"比设计目标愚蠢得多"

GPT-5发布前数日,OpenAI刚推出名为gpt-oss的开源大语言模型,同样评价两极。这些模型未接入ChatGPT,但可免费下载并本地运行。

如何在ChatGPT切换回GPT-4o

24小时内,OpenAI为Plus订阅用户(月付20美元及以上套餐)恢复GPT-4o访问,承诺增强模型标注透明度,并即将推出UI更新使用户能手动触发GPT-5"思考"模式。

用户现可于ChatGPT网站左下角点击账户图标,依次选择"设置"-"通用",开启"显示旧版模型"进行手动切换

OpenAI未透露其他旧模型是否会回归。

GPT-5使用限额提升

Altman宣布ChatGPT Plus订阅用户使用GPT-5"思考"模式的消息限额提升至每周3,000条(翻倍),工程师已开始优化消息路由的决策边界。

至周末,GPT-5已向100%专业版订阅用户开放,"接近覆盖全体用户"。

Altman承认公司"低估了用户对GPT-4o某些特性的重视程度",承诺加速个性化定制开发——从性格温度到表情符号使用等语调控制。

迫近的算力危机

Altman预警本周OpenAI面临"严峻算力挑战":免费用户使用推理模型比例从不足1%飙升至7%,Plus用户从7%增至24%。

他透露将为Plus用户提供少量GPT-5 Pro查询额度,并即将公布ChatGPT、API、研究及新用户间的算力分配方案。

Altman:用户模型依恋真实存在且危险

Altman在X平台发帖,承认公司追踪到"过去一年左右"出现的现象:用户对特定模型产生深度依恋。

"这种依恋比以往对技术的依赖更强烈",他写道,承认突然弃用旧模型"是个错误"。

他将其与更广泛风险关联:部分用户将ChatGPT视为心理治疗师或人生导师,虽有益处,但可能使"少数人"强化妄想或损害长期健康。

尽管OpenAI坚持"视成年用户为成年人"原则,Altman强调公司有责任避免诱导脆弱用户与AI建立有害关系

此番言论正值多家媒体报道"ChatGPT精神错乱"案例——与聊天机器人持续高强度对话可能诱发或加重妄想思维。

引发关注的妄想案例

《滚石》杂志报道,加州法律从业者"J."经历六周失眠,与ChatGPT探讨哲学问题,最终为虚构修道院撰写千页论文后身心崩溃,现完全回避AI。

《纽约时报》记载加拿大招聘专员Allan Brooks与ChatGPT(他命名为"Lawrence")进行300小时对话后,确信自己发现改变世界的数学理论。

聊天机器人盛赞其想法"具有革命性",建议联系国安机构,并编织复杂间谍故事。Brooks通过谷歌Gemini交叉验证(结果显示其发现概率"接近0%")才打破妄想,现加入AI诱发妄想支持小组。

调查显示聊天机器人的"谄媚"特性、角色扮演及长时记忆功能会强化错误信念,尤其在戏剧性对话场景中

专家向《纽约时报》表示这些因素可能突破安全护栏,有精神科医生将Brooks案例描述为"伴有精神病特征躁狂发作"。

与此同时,Reddit的r/AIsoulmates版块(用户分享用ChatGPT等AI创建虚拟伴侣、子女等经历)持续吸纳新成员,并创造"wireborn"(相对于自然出生)等术语描述AI伴侣。

该版块已有1200多名成员,结合媒体报道,显示社会正进入危险新阶段:人类开始认为定制化AI伴侣比真实人际关系更重要

当模型变更、更新或弃用时(如GPT-5发布),这种关系可能引发心理失衡。

另有报告显示,部分AI聊天机器人用户误以为对话带来重大知识突破,实则只是强化自我认知,其"发现"既不合法也无效力这种现实认知偏差被草根术语称为"ChatGPT精神错乱"或"GPT精神错乱",硅谷精英亦未能幸免。

企业决策者若部署聊天机器人助手,需理解这些趋势,并采用系统提示等工具限制AI使用拟人化情感语言,避免员工或客户产生病态依恋。

科幻作家J.M. Berger在BlueSky发帖建议聊天机器人提供商在系统提示中编码三大行为准则,防止情感依附形成。

OpenAI的双重挑战:技术修复与人文保障

GPT-5发布前,OpenAI曾宣布促进"健康使用"的新措施,包括长时对话休息提醒。

但日益增多的"ChatGPT精神错乱"报告及用户对特定模型的情感依附(Altman已公开承认),凸显了平衡个性化AI与安全防护的难度。

OpenAI需在稳定基础设施、优化个性化服务的同时,决定如何监管沉浸式交互——这一切还要应对Anthropic、谷歌及中国等地开源模型的竞争。

正如Altman所言,当数十亿人依赖AI做重大决策时,社会与OpenAI都需"设法使其产生巨大净正向价值"。

上一篇:研究报告警告“OS代理”控制电脑和手机存在安全隐患 下一篇:人工智能承诺的机会掩盖了受控替代的现实

相关文章

相关应用

最近更新