OpenAI发布新模型,你必须要知道的5件事

第一、未来可能不会再有GPT5了,这个新模型之所以叫o1,其实就是因为GPT系列已经配不上它了,o1将是OpenAI最强水平。

第二

一个词形容这个模型的亮点,推理能力。它拥有真正的通用推理能力,能在博士级别的科学问答环节上超越人类专家。在博士级的科学问题中,博士物理能考92.8分,在刚结束的2024国际信息学奥林匹克竞赛IOI,o1能直接达到金牌水平。GPT4o连及格都很难。大家看看,这张图,包含有各个学科,数学,化学,物理,计量经济学,形式逻辑,道德情感……性能全面碾压GPT4o,果然能打败OpenAI的只有OpenAI。

第三

真的会深度思考,新模型更像人类了,会展示思考过程,思考时间。这更像是人类的系统2,更加擅长深度推理,每个问题都会思考一定时间。你能看到它的推理逻辑,思考、拆解、理解、推理,然后给出答案,你能直观判断答案的合理性。这不就是给你真正动脑子,拥有人类的特质了。我们再看看以前的大模型,更像是一个啥都懂一点的大学生,在专业复杂的知识上显得有点鸡肋。

第四

为什么它这么强?大家一定很好奇,OpenAI是如何突飞猛进,达到这么强的推理能力的?用一句话来说,就是OpenAI o1 是经过强化学习训练,它可以在响应用户之前产生一个很长的内部思维链。思维链是我们在决策时所经历的一系列心理活动,前提条件是什么,一步步推理出一个结果。就是自己反复琢磨,如果一个方法不起作用,那就换一个思考路径,不断磨练和完善一个思考过程。而这个新模型,o1,就是这样思考的,模型内部自我分析,自我推理,然后评估哪一种解法最可能接近正确,完美地复刻了人类的思维模式,强大到可怕。

这个方法,最早来自于斯坦福大学2022年开发的一种"自学推理"(Self-Taught Reasoner,STaR)。就是自己教自己,最典型的例子就是AlphaGo,AI通过自己和自己下棋,提升自己的棋艺。讲到这里,是不是细思极恐?

第五

未来,很多高精尖的领域真的可以用到AI了。推理能力的进步,可能会减少AI的知识幻觉,就是AI一本正经地胡说八道可能会大大减少。你要知道,很多领域,比如自动驾驶、医疗等等是绝对不能出错的,哪怕是99%的正确率,只有1%错误,也会造成巨大的灾难。

OpenAI也提到,在未来,医疗保健研究人员可以使用o1来注释细胞测序数据,物理学家可以使用o1生成量子光学所需的复杂数学公式,所有领域的开发人员可以使用o1来构建和执行多步骤工作流程。OpenAI提供了一个例子,真正做到了只使用提示词,就完成了一个游戏的编程。

随着模型的迭代,它的推理能力会越来越强,将会达到非常恐怖的地步,在各个领域展现出远远超出人类的能力。在大尺度上跨入一个真正的全方位的人工智能主宰智力的时代。AGI也许近在咫尺了。

小编一不小心做了几个反响强烈、氛围友好互助的AI社群,如果你对AI感兴趣,欢迎加入添加小助手,进入AI学习群。你将和各行各业的小伙伴们一起深入讨论AI的最新发展、技术突破以及实际应用案例,更有丰富的AI行业报告和AI工具实操分享。

常见问题

OpenAI新模型o1相比GPT4o有哪些主要优势?

o1拥有真正的通用推理能力,在博士级别的科学问答环节上超越人类专家,在博士物理考试中能得92.8分,在2024国际信息学奥林匹克竞赛中达到金牌水平,而GPT4o连及格都很难。o1的性能在数学、化学、物理、计量经济学等多个学科全面碾压GPT4o。

o1模型的推理能力是如何实现的?

o1是经过强化学习训练的模型,它可以在响应用户之前产生很长的内部思维链。模型内部会自我分析、自我推理,然后评估哪种解法最可能接近正确,完美复刻了人类的思维模式。这种方法源于斯坦福大学2022年开发的'自学推理'技术。

o1模型如何展示其思考过程?

o1更像人类,会展示思考过程和思考时间,这类似于人类的系统2思维,更擅长深度推理。用户能看到它的推理逻辑:思考、拆解、理解、推理,然后给出答案,可以直观判断答案的合理性。

o1模型在哪些高精尖领域有应用前景?

o1的推理能力进步可能减少AI的知识幻觉,未来可在医疗保健领域用于注释细胞测序数据,物理学家可用它生成量子光学所需的复杂数学公式,开发人员可用它构建和执行多步骤工作流程。OpenAI已展示仅用提示词就能完成游戏编程的例子。

为什么说o1可能意味着GPT5不会出现?

新模型命名为o1而不是GPT5,是因为GPT系列已经配不上它的能力水平。o1将是OpenAI最强水平的代表,标志着模型发展进入新阶段。