International Federation of Automatic Control (国际自动控制联合会,简称IFAC) 成立于1957年,是一个以国家组织为成员的国际性学术组织,由9个协调委员会(Coordinating Committee )和40多个专业委员会(Technical Committee)组成。 IFAC Fellow Award旨在授予在IFAC所关心的领域中做出杰出贡献的科学家、工程师、技术领导者或教育家,每三年评选一次,目前全球范围内共有207位学者获此荣誉。
我们遴选了近一年来IFAC Fellow在JAS发表的文章:
本文通过建立合理假设,求取了上述Stackelberg博弈在满足状态反馈条件下的均衡解。该均衡解包含一个基于门槛值的传感器数据传输时间规划策略,以及一对具有分段特性的编码器编码与解码器估算策略。在此基础上,依据上述Stackelberg均衡解,对遥感系统的性能进行了仿真分析。仿真结果表明: (1)在干扰源的单位能耗相对于编码器更加昂贵的情况下,干扰源在工作中将倾向于降低其自身能耗,以至其产生的噪声信号减弱。因此,遥感系统的工作成本得以降低——具体表现为:编码器的能耗降低,解码器的估算误差降低; (2)在干扰器与编码器的单位能耗比保持恒定的情况下,随着传感器传输数据能力的增强,遥感系统的工作成本总体呈现降低趋势。然而当传感器传输数据的能力达到某一门槛值后,遥感系统的工作成本将保持不变; (3)在干扰器与编码器的单位能耗比恒为1的情况下,当传感器尚不具备传送随机过程全部采样的能力时,随着随机过程时域的增长,编码器能耗也发生增长;而当传感器具有传送随机过程的全部采样的能力时,编码器能耗则保持恒定,不再受到随机过程的时域长度的影响。
美国国家工程院院士、耶鲁大学A. Stephen Morse教授和李彧可博士目前致力于将控制系统理论应用于理解及预测人类的行为,研究重点之一是对政治行为的分析预测。Morse教授等认为,政治的本质是行为者之间的博弈,而从古至今的国际关系向来是不同的主权国家在一个随时间变动的复杂的敌友关系网中的博弈过程。通过构建网络博弈论模型,研究者可以对国际关系中敌人与盟友之间互相支配政治军事权力的博弈过程进行详细的描述与分析,进而提供一个合理的理论与政策框架供决策者参考。 作为构建理论与政策框架的第一步,他们提出了一个国家之间分配军事政治权力的网络博弈论模型,该模型为分布式资源分配博弈的静态模型。 美国南加州大学先进交通技术中心主任Petros Ioannou教授等在本文中分析了人群引导疏散的最新进展。根据引导方法和技术的不同将人群引导疏散进行了分类,并从单一引导模式的角度对基于标识、引导员和辅助设备的人群引导疏散方式进行了综合分析和比较。此外,从系统的角度对采用智能技术和方法的疏散引导系统进行了综述。最后,探讨了各种引导模式存在的优缺点,并展望了未来人群引导疏散的研究方向。
本文通过回顾和分析不同类型的引导模式,如指示牌、引导、辅助设备、疏散引导系统等,对人群疏散引导的研究工作和方法进行了综述。根据不同类型的引导模式/方法,提出了一种人群疏散的分类方法。摘要从单一引导模式的角度出发,综合分析了静态引导、动态引导、训练有素的指挥、移动设备、移动机器人和无线传感器网络对人群疏散的影响。从系统的角度对利用自动化技术手段进行人群疏散的应急引导系统进行了综述和讨论。以往的研究结果表明,不同类型的引导模式引导人群疏散可以为大规模人群管理提供可行的方案。提出并讨论了具有挑战性的 人群疏散引导方法和研究方向。在未来,将会有更多的智能引导方法和设备被提出,以提高引导人群疏散的效率。 眼中心定位是一些人机交互应用中最关键和最基本的要求之一,如眼球注视估计和眼球跟踪。近年来这方面的研究工作很多,但由于外形的高度可变性、光照条件、视角和可能的遮挡等方面的挑战,其准确性还有待提高。 针对这些问题和局限性,本文提出了一种基于全卷积网络(FCN)的眼睛中心定位新方法,该方法是一种端到端的像素对像素网络,可以准确定位眼睛中心。其核心思想是将目标语义分割任务中的FCN应用到眼中心定位任务中,因为眼中心定位问题可以看作是一个特殊的语义分割问题。我们将当前的FCN调整为一个带有大核卷积块的浅结构,并通过微调将其性能从语义分割转移到眼睛中心定位任务。大量的实验表明,该方法在眼中心定位的准确性和可靠性方面都优于现有的方法。该方法在最具挑战性的数据库上取得了较大的性能改进,为一些具有挑战性的应用提供了一个有前途的解决方案。 本文从常规巡逻和对抗性巡逻两个角度对多机器人巡逻领域的现有研究进行了综述。常规巡逻要求机器人尽可能频繁地访问重要位置,提出了一系列确定性的策略,而对抗性巡逻则侧重于不可预测的机器人移动模式,以最大限度地提高敌我识别的概率。在每个类别下,系统地进行调查,包括问题陈述和建模、巡逻目标和评估标准、有代表性的巡逻战略和方法。并提出了目前有待研究的问题,叙述如下: 1.在基于图的模型中,目前很少考虑节点移动引起的动态情况。然而,它们在许多情况下都会发生。 2.现有机器人的重新配置在未来需要进一步的关注。如第一节所述,与无线传感器网络相比,MRSs的优点之一是,如果需要,机器人可以配备机械设备参与任务。 3.在当前敌对的巡逻研究中需要进行进一步研究。例如,一个准确的支付矩阵的定义很难被评估在一些现实的应用程序中,一个学习模型中使用的历史信息应该精炼和保存在一个小规模的减少内存使用量,提高计算速度,研究机器人队伍规模与入侵者破坏防御的时间之间的关系,在不浪费资源的情况下获得较高的探测概率。 本文针对线性连续时间动力系统,提出了一种与传统的批量学习算法不同的 新型增强学习方法。为解决实际应用中的在线学习问题提供了一种更有效的方法。文章给出了该增量学习算法的具体收敛性和鲁棒性分析;给出了鲁棒最优控制问题的推广;通过两个仿真实例说明了理论计算结果的有效性。 强化学习(RL)的概念最早由Minsky于1954年提出。近年来,RL已成为各行业研究的热点之一。与其他人工智能技术不同的是,RL背后的最初想法来自于人类大脑的学习和思考过程。因此,RL在解决各种复杂的决策任务方面取得了巨大的成就。大多数现有的ADP方法都是批处理学习方法,因为学习过程涉及到在每次学习迭代中取数据矩阵的倒数,这会导致沉重的计算负担。为了解决这一问题,本文提出了一种新的连续时间RL算法。该算法的主要优点是在学习过程中不需要取任何矩阵的逆,并且算法可以实时更新而不需要等待形成全秩数据矩阵。收敛分析是基于作者最近开发的鲁棒动态规划(RDP)方法进行的。该方法特别适用于在线求解矩阵逆不实用的高阶系统。此外,作者将这种增量学习方法推广到求解一类部分线性系统的鲁棒自适应最优控制问题。与传统方法不同,这种新方法不需要多个学习阶段,并遵循迭代收敛(Ⅵ)理论。
转载本文请联系原作者获取授权,同时请注明本文来自欧彦科学网博客。 链接地址: https://blog.sciencenet.cn/blog-3291369-1202119.html
上一篇:
空间充气展开绳网系统捕获目标自抗扰控制研究 下一篇:
JAS国际影响力指数和国际他引影响因子蝉联第1,再获Top5%最具国际影响力期刊称号