twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

GPT还远远不是真正的智能 精选

已有 6330 次阅读 2023-11-25 10:42 |个人分类:2023|系统分类:科研笔记

近期OpenAI引起了一场世界瞩目的人事变动,引发了人们对于人工智能治理风险问题的关注。,这里将对GPT做些分析,不当之处,还望大家拍砖指正。

GPT本身就是一个基于机器学习与人初步合作的自然语言处理模型,它可以生成逼真的文本。虽然GPT在生成文本方面取得了显著的进展,但它并不具备真正的智能。GPT是通过训练模型来学习语言模式,它不具备理解、推理、判断和主动学习的能力。它只是根据已有的语料库生成文本,而没有真正的理解和认知能力。因此,虽然GPT在某些任务上表现出强大的性能,但它仍然无法达到人类智能的水平。

GPT(Generative Pre-trained Transformer)只是一种预训练的自然语言处理模型,它可以高概率性的生成连贯和有意义的文本。虽然GPT在很多任务上表现出色,但它仍然不是一个真正的人机环境系统。人机环境系统需要更多元化的能力,包括对环境的感知、理解和交互能力。尽管GPT可以生成文本回答问题,但它缺乏对环境的物理感知和交互能力。所以,GPT还有一些局限性,无法代替真正的人机环境系统。

实际上,大语言模型的提升主要集中在对客观事实和语言规则的理解和生成上。它可以更准确地分析和生成文本,但在体现主观价值趋势方面仍存在局限性。大语言模型通过训练大量的数据,能够了解并重现人类的表达方式和语言规则。在客观事实的描述和分析上,它能够提供更准确和全面的信息。然而,在主观价值趋势方面,由于主观性和价值观是高度个体化和文化相关的,模型难以完全捕捉到每个人的主观感受和价值取向。此外,大语言模型在训练数据中通常会存在一些偏见和不平衡,这也会影响模型对主观价值趋势的反映。模型可能会反映出训练数据中的偏见和不平衡,从而在生成文本时产生一些不公正或片面的观点。这就需要在使用大语言模型时,考虑到模型的局限性,并对其生成的文本进行适当的审查和修正。因此,虽然大语言模型在客观事实的提升方面具有很大潜力,但在体现主观价值趋势方面,还需要进一步的研究和改进。

真实世界与大语言模型中的事实与价值。真实世界是指我们所生活的现实世界,它是客观存在的,括我们身处的物理空间、人际关系、自然环境等;大语言模型是指基于大规模文本数据训练的人工智能模型,它可以模拟人类的语言能力,生成文本、回答问题等。事实是指客观存在的真实情况,是可以被证实或证伪的陈述。在真实世界中,事实是根据客观的证据和观察得出的,它们不依赖于个人观点或感知。大语言模型可以基于已有的文本数据来提供信息和回答问题,但它并不具备独立判断事实的能力。所以,在处理事实时,我们应该倾向于依赖真实世界中的可靠数据和证据。价值是指对某种事物或行为的评价,是主观的观点和信念。在真实世界中,每个人对事物的价值观可能不同,而大语言模型并不能主动表达自己的价值观。大语言模型可以根据已有的训练数据提供一些信息和建议,但其提供的信息有可能受到数据偏见和人类编码的价值观影响。因此,在涉及价值判断时,我们应该综合考虑多个来源的信息和观点,而不是仅仅依赖于大语言模型的输出。概而言之,真实世界中的事实是客观存在的,需要依赖真实的数据和证据来验证。大语言模型可以提供一些信息和回答问题,但它并不能独立判断事实的真实性。而对于价值,它是主观的观点和信念,需要综合考虑多个来源的信息和观点。

在感知方面,真实世界的感知是通过我们的感官获得的,我们能够通过视觉、听觉、嗅觉、触觉等感官接收到来自外界的刺激。大语言模型无法像人类一样通过感官接收信息,它只是通过分析和学习大量的文本数据来掌握语法、词汇和语义等知识。在认知方面,真实世界的认知是通过我们的思维和推理能力进行的,我们能够理解信息的含义、分析问题、做出决策等。大语言模型也具备一定的认知能力,它可以通过学习大量的文本数据来理解语言的含义和逻辑关系,可以回答简单的问题、生成文本等。然而,真实世界的感知和认知是基于我们对于世界的实际经验和知识的理解,而大语言模型的感知和认知是基于对大量文本数据的学习。所以,大语言模型可能会存在理解偏差,无法真正理解文本背后的深层含义和情感,也缺乏对真实世界的实际体验和情感的感知。还有,大语言模型也容易受到数据的偏见和不准确性的影响,可能会生成不准确或有偏见的文本。

再进一步讲,对于人工智能来说,尽管它在某些方面已经取得了很大的进展,但它仍然不是一个真正的人机环境系统。目前的人工智能系统主要依赖于预训练的模型和算法来处理特定的任务,而且它们通常是基于特定的数据集进行训练的。这意味着它们的能力和知识是有限的,无法全面理解和适应复杂且真实的人机环境世界。

大语言模型虽然拥有强大的处理能力和较高的创造力,但仍然存在一些限制和天花板。首先,大语言模型需要大量的训练数据才能发挥出其强大的能力。尽管如今互联网上的数据量非常庞大,但是有效、准确和可靠的数据仍然相对较少。对于一些特定领域或特殊任务的语言模型,获取大规模的训练数据变得更加困难。因此,训练数据的质量和数量成为了限制大语言模型的一个关键因素。其次,大语言模型的训练和推理过程需要庞大的计算资源。训练一个大规模的语言模型可能需要数千个GPU甚至更多的计算资源,这对于个人用户或中小规模的组织来说是非常昂贵和困难的。同时,推理过程中对计算资源的需求也会限制大语言模型在实际应用中的使用。再者,大语言模型在理解语义和上下文等方面仍然存在挑战。尽管大语言模型可以生成一些令人惊叹的文本,但往往缺乏真正的理解和推理能力。例如,在处理歧义性问题、理解情感和情绪、处理复杂的推理任务等方面,大语言模型仍然存在一定的困难。总的来说,虽然GPT可以在许多常见的对话场景中提供有用的回答和交互体验,有的甚至让人产生它有意识的程度,但它仍然具有很大的限制和局限性,可以认为是一种初级的人机环境系统交互智能。

要将人工智能发展成一个真正的人机环境系统,还需要解决许多技术和伦理问题。我们需要更加先进和强大的机器学习算法,使得人工智能能够自主地学习和适应环境。同时,我们还需要考虑人工智能的道德和法律问题,确保其在使用中不会对人类造成伤害。人工智能治理风险是指人工智能技术可能导致的负面影响和风险。随着人工智能技术的快速发展,许多人担心它可能导致失业、隐私侵犯、武器化、不平等等问题。因此,对于如何管理和控制人工智能技术的发展,以及确保其对人类产生积极影响,成为了一个重要议题。

OpenAI的人事变动引发了人们对于人工智能治理风险问题的关注。OpenAI承诺将致力于确保人工智能技术的广泛受益,但同时也意味着需要采取措施来避免潜在的风险和滥用。这一变动提醒我们,人工智能治理不仅是技术层面上的问题,也是一个伦理和社会问题。需要建立起多方参与的机制,包括政府、学术界、行业和公众,共同努力推动人工智能技术的发展和应用,同时保证其符合人类的价值和利益。人工智能治理风险问题的关注不仅限于OpenAI,也应该成为全球范围内的关注点。只有通过合作和共同努力,我们才能更好地管理人工智能技术,确保其为人类带来最大的好处,同时避免潜在的风险和副作用。

究竟,人工智能技术不仅仅是一个技术问题,还是一个人机环境系统生态问题。人工智能技术的应用不仅会影响到我们的工作和生活方式,也会对社会、经济和环境产生广泛影响。首先,人工智能技术的广泛应用将极大地改变我们的工作方式和就业情况。某些工作岗位可能会被自动化取代,而新的技能需求也会出现。因此,我们需要调整教育和培训系统,以使人们能够适应这些变化,避免出现失业和技能断层的问题。此外,人工智能技术的应用还会对社会和经济结构产生重大影响。例如,在交通领域,自动驾驶技术的普及将使得交通流量更加高效,并改变城市规划和交通管理方式。然而,这也可能导致出租车和货运行业的就业机会减少,从而带来社会和经济不平衡的问题。还有,人工智能技术的应用还与个人隐私和数据安全密切相关。随着人工智能技术在各个领域的应用,我们的个人信息和隐私可能会受到更多的威胁。因此,我们需要建立有效的数据管理和隐私保护机制,确保人工智能技术的应用不会对个人权益造成损害。另外,人工智能技术的发展也要考虑到环境和可持续发展的问题。人工智能系统的运行需要大量的计算资源和能源消耗,这可能对环境造成不可忽视的影响。因此,在推动人工智能技术的发展过程中,我们应该注重绿色和可持续的发展,采取措施减少能源消耗和碳排放。

总之,人工智能技术不仅涉及技术问题,还涉及到人机环境系统生态问题。只有综合考虑技术、社会、经济和环境因素,我们才能更好地应对人工智能技术的挑战和机遇,实现其可持续发展。

   mmexport1565970688761.jpgmmexport1677718144226.jpg人机环境系统智能-超越人工智能1.jpg



https://blog.sciencenet.cn/blog-40841-1411077.html

上一篇:人类与机器的注意力机制
下一篇:人、机与智能的关系视频
收藏 IP: 117.136.38.*| 热度|

5 曾杰 王启云 苏德辰 许培扬 guest35205368

该博文允许注册用户评论 请点击登录 评论 (3 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-2-29 10:49

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部