twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

科技日报2022年11月21日文章;理解人机智能,倡导“智能向善”

已有 1974 次阅读 2022-12-10 22:04 |个人分类:2022|系统分类:科研笔记

科技日报20221121.jpg

理解人机智能,倡导“智能向善”

    1997年电脑“深蓝”战胜世界棋王卡斯帕罗夫,掀起了本轮人工智能的研究热潮。但在现有数学体系和软硬件的设计模式基础之上,人工智能在智能水平和能力范围上与人类智能相比仍存在极大差距。究其原因,人类智能和机器智能之间还存在无法跨越的界限,人工智能是逻辑的,人类智能却未必是逻辑的。依赖于“符号指向对象”的机器只能在封闭环境进行形式化计算,人类却可以实现开放环境中的意向性算计。在这种背景下,实现人机优势互补、倡导“智能向善”显得尤为重要。


一、人工智能的瓶颈:总想用逻辑手段解决非逻辑问题

    哲学家休谟认为:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终都会以某种途径再次回归到人性中。从这个角度来看,人工智能“合乎伦理的设计”很可能是黄粱一梦。伦理对人而言还是一个很难遵守的复杂体系,对机器而言则更加难以理解。在人工智能领域,“合乎伦理设计”或许是科幻成分多于科学成分、想象成分多于真实成分。

    当前的人工智能及未来的智能科学研究具有两个致命的缺点,即把“数学等同于逻辑”和“把符号与对象混淆”。人机混合的难点和瓶颈也因此在于(符号)表征的非符号性(可变性)、(逻辑)推理的非逻辑性(非真实性)和(客观)决策的非客观性(主观性)。

    真正智能领域的瓶颈和难点之一是人机环境系统失调问题,具体体现在跨域协同中的“跨”与“协”如何有效实现的问题,这不仅关系到解决各种辅助决策系统中“有态无势”(甚至是“无态无势”)的不足,还涉及到许多辅助决策体系“低效失能”的朔源。也许需要尝试把认知域、物理域、信息域构成的基础理论域与陆海空天电网构成的技术域有机地结合起来,为真实有效地实现跨域协同打下基础。

二、如何研究和理解智能问题?

    智能不是人脑(或类脑)的产物,也不是人自身的产物,而是人、物、环境系统相互作用的产物。正如马克思所言:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”,事实上,真实的智能同样也蕴含着这人、物、环境这三种成分,随着科技的快速发展,其中的“物”却也逐渐被人造物——“机”所取代,简称为人机环境系统。平心而论,人工智能要超越人类智能,在现有数学体系和软硬件的设计模式基础之上,基本上不大可能,但在人机一体化或人机环境系统中却是有着可能。人工智能是逻辑的,智能则不一定是逻辑的。智能是一个非常辽阔的空间,它可以随时打开异质的集合,把客观的逻辑与主观的超逻辑结合起来。

    研究智能这样的复杂问题是困难的,但把它分解成人机环境系统问题就相对简单一些。人要解决的是“做正确的事(杂)”,机要解决的是“正确地做事(复)”,环境所要解决的是“提供做事平台(复杂)”。正如郭雷院士所言:“复杂性和智能化是系统科学发展的两个永恒的主题。复杂性主要体现的是系统科学认识世界的一面,而智能化主要体现的是系统科学改造世界的一面。”所以,未来中美在人工智能领域的角力的焦点不仅仅是人、机、环境每一或所有单项人工智能的领先优势,更重要的是人、机、环境系统混合智能的整合。

    在真实的人—机—环境系统交互领域中,人的情景意识、机器的物理情景意识、环境的地理情景意识等往往同构于统一时空中,在人的行为环境与机的物理环境、地理环境相互作用过程中,人的情景意识、行为特征并非由人的元素单独决定,而是取决于人—机—环境系统整体,在充满变数的人—机—环境交互系统中,存在的逻辑不是主客观的必然性和确定性,而是与各种可能性保持互动的同步性,是一种得“意”忘“形”的见招拆招和随机应变能力,而这种思维和能力恰恰是人工智能所欠缺的地方。

三、人机混合智能是未来发展方向

    未来数字世界中,人与机器如何分工?人与机器的边界又将如何划分呢?

    实际上,当前人机关系主要是功能分配,人把握主要方向,机处理精细过程,而未来的人机关系可能是某种能力的分工,机也可以把握某些不关键的方向,人也可以处理某些缜密的过程。人机的边界在于“应”和“变”,即如何实现适时的“弥”(散)与“聚”(焦)、“跨”(域)与“协”(同)、“反”(思)与“创”(造)。

    人机智能是人—机—环境系统相互作用而产生的新型智能系统。其与人类智能、人工智能的差异具体表现在三个方面:首先,在混合智能输入端,它把设备传感器客观采集的数据与人主观感知到的信息结合起来,形成一种新的输入方式;其次,在智能的数据/信息中间处理过程,机器数据计算与人的信息认知相混合,构建起一种独特的理解途径;最后,在智能输出端,它将结果与人的价值决策相匹配,形成概率化与规则化有机协调的优化判断。人机混合智能是一种广义上的“群体”智能形式,这里的人不仅包括个人,还包括众人,机不仅包括机器装备,还涉及机制机理;此外,还关联自然/社会环境、真实/虚拟环境、网络/电磁环境等。

    人机混合智能也存在着一个难题,即机器的自主程度越高,人类对态势的感知程度越低,人机之间接管任务顺畅的难度也越大。有经验的人常常抓关键任务中的薄弱环节,在危险情境中提高警觉性和注意力,以防意外,随时准备接管机器自动化操作,也可以此训练新手,进而形成真实敏锐地把握事故的兆头苗头、恰当地把握处理时机、准确地随机应变能力,并在实践中不断磨砺训练增强。即便如此,如何在非典型、非意外情境中解决人机交互难题仍需要进一步探讨。

    人机混合智能是人工智能发展的必经之路,其中既需要新的理论方法,也需要对人、机、环境之间的关系进行新的探索。随着人工智能的热度不断加大,越来越多的产品走进人们的生活之中。但是,强人工智能依然没有实现,如何将人的算计智能迁移到机器中去,这是一个必然要解决的问题。我们已经从认知角度构建认知模型或者从意识的角度构建计算-算计模型,这都是对人的认知思维的尝试性理解和模拟,期望实现人的算计能力。计算-算计模型的研究不仅需要考虑机器技术的飞速发展,还要考虑交互主体即人的思维和认知方式,让机器与人各司其职,互相混合促进,这才是人机混合智能的前景和趋势 。

四、引领伦理治理,倡导“智能向善”

    科技向善对西方而言是个有问题的提法,科技是物质世界的客观存在,向善则是伦理道德的必然要求,从客观存在能否推出必然要求,这是目前西方仍在争议的话题。

    科技本身没有对错善恶之分,能利人利己,也能害人害己;而设计、开发、使用、管理、维护、运行的人会有对错善恶混合之分,科技向善本质是指“人”的向善。故在监管上需要坚持伦理先行的理念,建立并完善人工智能伦理问责机制,明确人工智能主体的责任和权利边界;在研发上需要确保先进科技手段始终处于负责可靠的人类控制之下,预防数据算法偏见产生,使研发流程可控、可监督、可信赖;在使用上需要确保个人隐私和数据安全,预先设立应急机制和兜底措施,对使用人员进行必要培训等。

    党的二十大指出,中国积极参与全球治理体系改革和建设,践行共商共建共享的全球治理观,坚持真正的多边主义,推进国际关系民主化,推动全球治理朝着更加公正合理的方向发展。作为人工智能领域的先驱者之一,中国正在用实际行动为人工智能全球治理体系注入东方智慧,展现了大国形象和担当。20219月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调应将伦理融入人工智能全生命周期,并针对人工智能管理、研发、供应、使用等活动提出了六项基本伦理要求和四方面特定伦理规范。今年3月,中国发布《关于加强科技伦理治理的意见》,提出应加快完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类,实现高水平科技自立自强。近日,中国向联合国提交《关于加强人工智能伦理治理的立场文件》,从构建人类命运共同体的高度,系统梳理了近年来中国在人工智能伦理治理方面的政策实践,积极倡导“以人为本”“智能向善”理念,为各国破解人工智能发展难题提供了具体解决思路,值得国际社会高度重视与深入研究。


附件:


中国关于加强人工智能伦理治理的立场文件


 2022-11-17 08:43 外交部网站发布


一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼呼各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。




https://blog.sciencenet.cn/blog-40841-1367415.html

上一篇:[转载]ChatGPT被指不靠谱遭封杀,人类面临新问题:AIGC的事实核查
下一篇:更多的可能: 新年贺词
收藏 IP: 124.64.122.*| 热度|

1 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-9-27 11:09

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部