程京德(Jingde Cheng)的博 ...分享 http://blog.sciencenet.cn/u/JingdeCheng 相关逻辑,软件工程,知识工程,信息安全性工程;自强不息,厚德载物。

博文

OpenAI o1 的“昂贵推理”之用途? 精选

已有 718 次阅读 2024-9-14 09:18 |个人分类:人工智能|系统分类:科研笔记

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!

     

OpenAI o1 的“昂贵推理”之用途?

程京德 

   

    OpenAI 于9月12日发布了重新编号的新一代大语言模型“o1”[1,2],并且声称“我们开发了一个系列的人工智能模型,旨在让它们在做出反应之前花更多时间思考[注1]相比于以前的模型,它们能够通过复杂的任务进行推理[注1]和解决[注1]科学、编码和数学领域中更难的问题(We've developed a new series of AI models designed to spend more time thinking[注1] before they respond. They can reason[注1] through complex tasks and solve[注1] harder problems than previous models in science, coding, and math)”[1]。

[注1:如果从严谨的学术观点来看,这三个词汇的用法都是多少有些问题的。详见下文。]

    本文试论 OpenAI o1 的“昂贵推理”之用途。

    首先,从范式、原理、及数学工具来说,大语言模型永无可能100%地生成完全准确的输出结果[3,4],OpenAI o1 当然也不例外。其次,使用 OpenAI o1 获取结果的代价相当高,换言之, OpenAI o1 的“推理”相当“昂贵”[4]。 

    笔者认为,如果从人工智能学术研究的角度来看,那么无论花费的代价有多大,研究调查清楚大语言模型最终能够在什么程度上达到甚至超越部分人类智能,都是很值得并且很伟大的工作。但是,如果把大语言模型作为一个工程技术产品,那么从应用的角度来看,就有有效性问题以及性能价格比问题需要考虑了[4]。

    “推理是从一些前提中得出新结论的过程,这些前提是已知的事实或假设。一般来说,推理由若干个论证(或推论)所组成。一个论证(或推论)是一组陈述句,由一个或多个包含证据的句子作为前提,一个句子作为结论组成。一个论证主张在它的前提和结论之间有某种证据关系:结论应该从前提中得出,或者,等价地,前提应该引出结论。一个论证的正确性是其前提与结论之间的联系的问题,并且关系到它们之间关系的强度。......一个逻辑上有效的推理是这样一种推理,其论证(或推论)基于某种逻辑标准被证明是合理的,以便获得正确的结论。(Reasoning is the process of drawing new conclusions from some premises, which are known facts or assumed hypotheses.  In general, a reasoning consists of a number of arguments (or inferences).  An argument (or inference) is a set of declarative sentences consisting of one or more sentences as its premises, which contain the evidence, and one sentence as its conclusion.  In an argument, a claim is being made that there is some sort of evidential relation between its premises and its conclusion: the conclusion is supposed to follow from the premises, or, equivalently, the premises are supposed to entail the conclusion.  The correctness of an argument is a matter of the connection between its premises and its conclusion, and concerns the strength of the relation between them. ...... A logically valid reasoning is a reasoning such that its arguments (or inferences) are justified based on some logical criterion in order to obtain correct conclusions. )”[5-7]。

    在逻辑学、数学、各门科学的学术研究中,逻辑学家、数学家、科学家们通过研究调查,发现新问题或新猜想,或者为已知的未解决问题或猜想,以逻辑思维及逻辑推理[8-10]为手段找到一个对该问题或猜想的证明或解决方案,公布于世界并获得认可,才可以被称为“解决了该问题或猜想”。在本质上或技术手段上简化前人已经公布的证明或解决方案,勉强也可以算作“解决了该问题或猜想”。但是,简单重复前人已经公布的证明或解决方案,绝对不会被称为“解决了该问题或猜想”。

    从上述学术观点来看,OpenAI 宣称其新模型 o1 “能够通过复杂的任务进行推理[注1]和解决[注1]在科学、编码和数学领域中更难的问题”是非常明显的用词不当言过其实,因为从 OpenAI 的介绍来看 o1 既没有发现任何新问题也没有解决任何已知的未解决问题,仅仅是提高了某些“解题正答率”。

    笔者认为,要让类似 OpenAI o1 这样的大语言模型能够在正确意义下进行推理和解决问题,还有很长很长的研发路要走,如果不是不可能(笔者个人倾向于“是不可能”的)。目前,即便是像 OpenAI o1 这样最强的大语言模型,也最多能够被用作为领域专家(亦即,在某领域内有研究成果可以自己发表学术论文的学者)的辅助工具。当然,如果免费,那么作为教育教学辅助工具来使用也是很好的,无论对于教授还是对于学生。

    另一方面,姑且不考虑 OpenAI o1 在科学研究方面的用途,而考虑其在人类日常生活中的用途,那么其性能价格比是个严重问题[4],因为按照 OpenAI 自己的介绍和网上试用者们的介绍,o1 比 ChatGPT 还要花费代价

    试问,如果使用电子数字计算机(超大型、大型、个人用台式/笔记本式)来计算出的结果之价值远远低于为了计算所花费的代价,那么还会有人来使用它们吗?

    最后,说说大语言模型的通用性。

    有许多人称基于深层学习的大语言模型可以通向人工通用智能(AGI)的实现,甚至有人曾经就声称 ChatGPT 必将甚至已经实现了 AGI,现在又有人声称 o1 已经实现了 AGI

    笔者认为,如果遵从人工智能概念及人工通用智能概念的创造者们的原始定义的话,那么,基于深层学习的大语言模型,无论是现今的还是今后进一步发展的,都不可能实现人工通用智能;这不是有些人声称的有关数据、算法、算力的技术/规模问题,而是范式(paradigm)的问题,亦即,基于深层学习的大语言模型这种范式不可能实现人工通用智能。而随意修改 AI 及 AGI 的原始定义后说大语言模型可以通向 AGI 的实现甚至已经实现了 AGI,是射击打靶之“打哪指哪”行为,不值得讨论。

参考文献

[1] OpenAI, “Introducing OpenAI o1-preview - A new series of reasoning models for solving hard problems,” September 12, 2024. 

[2] OpenAI, Learning to Reason with LLMs,” September 12, 2024. 

[3] 程京德,“ChatGPT 的原理局限性:它永远不会做什么?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年2月10日。

[4] 程京德,“大语言模型悖论”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2024年8月26日。

[5] J. Cheng, “A Strong Relevant Logic Model of Epistemic Processes in Scientific Discovery,” in E. Kawaguchi, H. Kangassalo, H. Jaakkola, and I. A. Hamid (Eds.), “Information Modeling and Knowledge Bases XI,” Frontiers in Artificial Intelligence and Applications, Vol. 61, pp. 136-159, IOS Press, February 2000.

[6] 程京德,“强相关逻辑及其应用(上)、(中)、(下)”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年6月18日、2023年8月8日、2023年8月12日。

[7] 程京德,“推理与证明之不同”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年5月7日。

[8] 程京德, “形象思维、抽象思维及逻辑思维”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年8月19日。

[9] 程京德, “如何培育和提高逻辑思维能力?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年8月23日。

[10] 程京德, “为什么说逻辑推理能力是人类智能中最基本的能力?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年10月27日。

  

微信公众号“数理逻辑与哲学逻辑”



https://blog.sciencenet.cn/blog-2371919-1451097.html

上一篇:指导软件工程过程及实践的16条核心原则
收藏 IP: 112.41.110.*| 热度|

1 晏成和

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-9-14 13:23

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部