搜索中心

ChatGPT-4o重新上线

分享至

8月9日消息,OpenAI发文宣布GPT-4o已重新上线,供Plus和Team用户使用。若需多平台使用,用户可在ChatGPT网页版设置中启用“显示旧版模型”来访问GPT-4o。此前,在GPT-5发布后,OpenAI曾停止提供GPT-4o,这一决定曾引发用户争议。

OpenAI回应GPT-4o更新后个性过于谄媚:已回滚到老版本

分享至

4月30日消息,OpenAI首席执行官山姆·奥特曼在社交平台表示,昨晚开始回滚GPT-4o的最新更新,现在免费版的回滚已100%完成,付费版完成后会再次进行更新,预计晚些时候对模型个性进行额外的修复,并将在未来几天分享更多信息。此前,奥特曼发文称,“GPT-4o的最近几次更新使其个性变得过于谄媚和烦人(尽管其中也有一些非常好的部分),我们正在尽快修复。”

OpenAI升级GPT-4o模型,提升智能和个性

分享至

当地时间4月25日,OpenAI首席执行官山姆·奥特曼在社交媒体上表示,已经升级了GPT-4o模型,目前在智能和个性两方面都有所提升。

OpenAI推出GPT-4o图像生成功能

分享至

当地时间3月25日,美国开放人工智能研究中心(OpenAI)宣布推出4o图像生成功能,“将迄今最先进的图像生成器集成至GPT-4o”。即日起,所有Plus、Pro、Team及免费用户将陆续在ChatGPT和Sora中体验该功能,企业版与教育版即将接入,Sora平台同步启用。开发者即将通过API调用GPT-4o图像生成功能,接口权限将于未来数周内开放。据介绍,GPT-4o图像生成功能可精准文本渲染、严格遵循指令提示、深度调用4o知识库及对话上下文——包括对上传图像进行二次创作或将其转化为视觉灵感。

OpenAI:大多数用户GPT-4o API问题已解决

分享至

北京时间3月18日早间,OpenAI发布事故报告更新称,GPT-4o大多数用户的API问题已解决,仍在持续关注剩余少量客户的情况。数日前,OpenAI发布报告指出,用户可能通过API使用GPT-4o时遭遇响应性能下降问题。

OpenAI:GPT-4o及4o-mini模型性能下降,正在调查

分享至

北京时间1月20日11时54分,OpenAI发布事故报告指出,当前遭遇GPT-4o和4o-mini模型性能下降问题,目前正在进行调查,并将尽快发布最新消息。

微软开源最强小模型Phi-4,超GPT-4o、可商用

分享至

1月9日消息,今天凌晨,微软研究院开源了目前最强小参数模型——phi-4。去年12月12日,微软首次展示了phi-4,参数只有140亿性能却极强,在GPQA研究生水平、MATH数学基准测试中,超过了OpenAI的GPT-4o,也超过了同类顶级开源模型Qwen 2.5 -14B和Llama-3.3-70B。在美国数学竞赛AMC的测试中phi-4更是达到了91.8分,超过了Gemini Pro 1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等知名开闭源模型,甚至整体性能可以与4050亿参数的Llama-3.1媲美。

2025年OpenAI新产品:AGI、智能体、GPT-4o升级版等

分享至

12月31日,山姆·奥特曼公布了2025年OpenAI即将发布的技术产品,包括通用人工智能AGI、智能体更好的GPT-4o升级版、更好的记忆存储、更好的上下文窗口成人模式、深度研究特色功能更好的Sora更好的个性化定制等。

李飞飞团队提出ReKep,让机器人具备空间智能,还能整合GPT-4o

分享至

近日,李飞飞团队提出了关系关键点约束(ReKep/Relational Keypoint Constraints)。简单来说,该方法就是将任务表示成一个关系关键点序列。并且,这套框架还能很好地与 GPT-4o 等多模态大模型很好地整合。从演示视频来看,这种方法的表现相当不错。该团队也已发布相关代码。李飞飞表示,该工作展示了视觉与机器人学习的更深层次融合。虽然论文中没有提及李飞飞在今年 5 年初创立的专注空间智能的 AI 公司 World Labs,但 ReKep 显然在空间智能方面大有潜力。

OpenAI宣布推出GPT-4o微调自定义版本

分享至

当地时间8月20日,美国开放人工智能研究中心(OpenAI)宣布推出GPT-4o微调自定义版本,即日起对所有付费使用级别开发人员开放。开发人员可以使用自定义数据集对GPT-4o进行微调,从而针对特定用例以更低的成本获得更高的性能。OpenAI表示,微调模型完全在客户的控制之下,拥有业务数据的全部所有权,可以确保数据永远不会被共享或用于训练其他模型。

OpenAI发布迷你AI模型GPT-4o mini

分享至

OpenAI当地时间7月18日推出名为“GPT-4o mini”的迷你AI模型,该模型是GPT-4o的一个分支。OpenAI计划稍后将图像、视频和音频集成到其中。

OpenAI山姆·奥特曼:新款语音模型GPT-4o尚未发布

分享至

OpenAI联合创始人兼首席执行官山姆·奥特曼当地时间5月15日就GPT-4o说明称,尽管GPT-4o的文本模式已经发布,但语音模式还未发布。

OpenAI用26分钟再次震撼世界,新模型GPT-4o语音水平接近人类

分享至

北京时间5月14日凌晨,OpenAI再迎重磅更新,虽然不是AI搜索,也不是GPT-5,而是发布了新旗舰模型GPT-4o,但也足以让业内震撼。 在此次OpenAI 仅有26分钟的春季发布会中,OpenAI首席技术官穆里·穆拉提(Muri Murati)宣布推出名为GPT-4o的新旗舰生成式AI模型,其集文本音频视觉于一身,能力全新升级。 此前不少爆料提到,OpenAI将推出AI搜索,与谷歌搜索竞争,从而增强ChatGPT的功能并开拓新市场,并称这款产品将在谷歌本周的开发者大会前推出。 不过,OpenAI CEO山姆·奥特曼对此否认,其表示,“不是 GPT-5,也不是搜索引擎,但我们一直在努力开发一些我们认为人们会喜欢的新东西!对我来说就像魔法一样。” GPT-4o显然就是奥特曼所说的“像魔法一样”的新东西。GPT-4o中的o就是Omni,其是拉丁语词根,意思是全面、全能,奥特曼称其“最好的模型”,并免费开放。