twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

AI(机器学习)的下一个风口

已有 1574 次阅读 2023-4-22 07:59 |个人分类:2023|系统分类:科研笔记

AI(机器学习)正在从LSTM转向ATTENTION,下一步将是SITUATION AWARENESS,而“Awareness”既有“感知”的意思,也有“意识”的意思:

1、LSTM与Attention

LSTM (Long Short-Term Memory)是一种循环神经网络(RNN)架构,用于处理序列数据。它的设计可以更好地捕捉输入序列中的长期依赖关系,同时避免梯度消失问题。Attention机制是一种用于加强神经网络对于输入序列中相关部分的关注程度的机制。它的目的是在处理长序列时,使神经网络可以更加准确地关注重要的部分。在许多自然语言处理任务中,如机器翻译和文本摘要,Attention机制都已经被广泛应用。

LSTM和Attention的主要区别在于,LSTM是一种循环神经网络架构,用于处理序列数据,而Attention机制是在神经网络中加强对输入序列中相关部分的关注程度的机制。

2、Attention与Situation Awareness

Attention(注意力机制)是一种机器学习中用于加强模型对输入数据中重要部分的关注度的技术。它通常用于自然语言处理、图像处理等领域,以帮助模型更好地理解输入数据并进行更准确的预测。Attention可以在模型中对输入数据的不同部分进行不同权重的加权,以提高模型的预测准确性。而Situation Awareness(情境感知)是指人们对周围环境和情境的认知和理解程度。因此,Attention和Situation Awareness的主要区别在于,Attention是一种用于加强模型对输入数据中重要部分的关注度的技术,而Situation Awareness是人们对周围环境和情境的认知和理解程度。虽然两者在某种程度上都涉及到模型或系统对输入数据的处理和理解,但Attention更加专注于模型的内部机制,而Situation Awareness更加关注人类的认知过程。

3、Transformer与Situation Awareness

Transformer是一种用于进行序列到序列学习的深度学习模型,它主要用于解决自然语言处理等任务。它通过注意力机制(Attention)来捕捉输入序列中的关键信息,从而提高模型的性能。而Situation Awareness(情境感知)则是一种人类的认知能力,用于理解和感知周围环境的信息,以及对当前情况进行分析和预测。因此,Transformer和Situation Awareness的主要区别在于,Transformer是一种深度学习模型,用于解决特定的任务,而Situation Awareness是人类的认知能力,用于理解和感知周围环境的信息。虽然Transformer和Situation Awareness都涉及到对输入信息的处理和理解,但它们的目的和应用场景不同。Transformer主要用于处理结构化数据(如序列数据),而Situation Awareness主要用于处理非结构化数据(如环境中的声音、图像等)。

4、DSA与SA

Deep Situation Awareness通常被认为是Situation Awareness的更高级形式,涉及人、机的SA融合。Situation Awareness是指一个人对周围环境和情况的感知和理解程度,而Deep Situation Awareness则更深入地理解环境和情况,包括对其背后的因果关系和可能的未来发展的预测。Deep Situation Awareness还可以引用更广泛的数据,包括历史数据、传感器数据、预测模型等,以帮助更好地理解当前情况。因此,人机融合的Deep Situation Awareness可以提供更全面、更深入和更准确的情况感知。


微信公众号:人机与认知实验室

mmexport1565970688761.jpg

mmexport1677718144226.jpg

01133df959c3f7911bbda37df9577463.jpg

人机环境系统智能.png



https://blog.sciencenet.cn/blog-40841-1385199.html

上一篇:GPT与人类的智能
下一篇:AI如何帮助人类进而验证直觉的可靠性?
收藏 IP: 124.64.127.*| 热度|

9 许培扬 郑永军 贾玉玺 李剑超 杨正瓴 范振英 孙颉 李学宽 李升伟

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-7-18 23:18

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部