|
首届DIKWP杯世界人工意识设计大赛-人工意识与法律赛道发布
主持人:
接下来发布的是首届DIKWP杯世界人工意识设计大赛-人工意识与法律赛道,主要是倾向于一个法律应用,还有一个司法的相关的。然后就有请我们的姜斌祥教授,还有我们的韩龙教授,可能后续的这个赛道还是要麻烦两位教授,多多指导。
姜斌祥教授:
今天跟段玉聪教授交谈的时候看到的。实际上主要是这样,我想的就是这个人工意识本身你要是体现他,要体现在哪才能更落地应用。如果是只体现在写小说或者画画,好像让大家感觉到对于我的生活,对我的实际工作隔离开来了。所以说我想在这个里面有很现实的司法战线,有几个东西现在我们也在做,第一个就是关于这个犯罪过程里面的犯罪行为画像。结合大模型,结合心理画像和模拟画像来进行这个方面,是非常实用的。这个赛道,可以让很多学生,学法学的,学网安的,甚至于一线的民警,专门有人做侦查的这个过程,包括这个审讯过程里面的微表情,加上这个大模型结合,在这个地方搞一些实用的竞赛产品,那么这个我想应该是非常有价值。
第二个方向呢,就是法学方面的韩龙教授应该知道,他们用的是模拟法庭,现在我们也在做研究,就是这种具身智能和包括大模型结合,模拟整个数字法庭。这个时候把供辩审过程全部在这个模拟数字法庭里面把它展现出来。甚至用大模型可以把法条全部放上去,然后在一些案件,然后不同的包括刑事案件,或者是民事的,或者经济的,都可以各种类型的然后进行法庭的供辩审过程,然后来模拟。我想对法学院学生的培养包括实务部门的应用,也是很有价值的,这个也是很现实。
第三个方向呢,就是执行过程,我想就是从应用角度落地三个实用的东西来体现人工意识。在这里面能够落地而不是漫无边际的是能落地的。那我想在这个赛道里,从我这个角度看,这三个是很实用的方向,我大概是这么设想的。
韩龙教授:
我觉得姜斌祥教授这个说的非常好,设想的非常好。确确实实我们这个人工智能也好,人工意识也好,咱们先不说将来这个人工智能在取代我们人类,是否取代人类之前,我想我们应当要实现它的社会和经济价值,让我们的社会和经济变得更美好一些。就刚才姜教授说的那个在法律界的应用。当然姜教授主要是从刑事、刑法这个角度,实际上人工智能在民事、民商事领域,现在甚至有比较成熟的东西。你好比说那个Smart Contract,就智能合约,智能合约它就是说If A then B就这么一定变成了,你知道触发这个条件,然后自动就执行了,等于把法院都撇开了,就这么个问题。但是我觉得我们把人工智能、人工意识给它适用到这个法律领域,包括司法领域,我觉得做好的话非常有前景,也非常有价值。所以这是第一个,我觉得就是这个应用,我觉得另外我需要补充的是什么?
就是这个应用过程中,包括人工智能、人工意识应用过程中,运用到法律这个领域还存在什么问题,这个我觉得也是这个赛道要关注的问题。比如我刚才说那个Smart t Contract,你说If A then B是吧?那么问题是这个世界,你很难说用一个代码就把这个世界未来发展变化全部都包括进去。因为这个合同,咱们现在签的,说If A咱们就设想A then B就是我得到什么?但是你后来又发生了,你还别说不可抗力,发生了抵赖是吧,发生了其他情况,这怎么办?还有比如我们用人工智能、人工意识里面的一些技术,这个技术有缺陷,怎么办?
段玉聪教授:
(笑)有人说算法都有偏见.
韩龙教授:
对,所以说就是在应用层面存在或者潜含什么样的问题和缺陷。我觉得这个赛道恐怕是应当关注的另外一个项目,那我就补充这些,谢谢大家。
段玉聪教授:
受姜教授、韩教授的启发,所以说我们把人工意识和人工智能区分在DIK和DIK交互就是人工智能,DIKWP和DIKWP交互上,就是人工意识。那么我们也不能保证技术上是怎么样,因为技术上是他执行的自由,编程的自由。但是我们希望在每一个系统,每一步可能得到语义解释的部分,它的意图是正确的。它的执行过程由DIK呈现了,它的价值W取向、价值观的交互就W呈现出来了。那么这个时候每一步DIK服从于它的意图驱动,也就P驱动下W经过审核的情况下,而且每阶段不断的做这样的检验,就是做一个代码的DIKWP数字孪生。这样的情况下,就希望能够达到不仅仅关注Smart Contract。当然现在做的Smart Contract的是DIK的Smart,我们要做到Artificial Consciousness的而且以人为本的情况下的Contract。这个时候我们不但要对确定性的情况做出Design,就是说设计好,而且对不确定情况下我们发生了,依然要保证不确定情况的DIK是可以被确定在人类的意图对应的语义空间是满足人类期待的,但是W和P还是要确定,在DIKPW的WP概念层面到语义空间做出未被定义的部分的符合预期的实现。
这里边,我觉得法律大家对你们的期待是非常高。因为能够直接约束人类的行为活动的就是法律,大部分情况下都是法律。那么当然也有道德,很多其他隐性的风俗等等。但是这些法律还是集体的相对客观的。而且它非常重要,重要到我们其实一直在讲,有些人讲这个人工智能就是大模型,恐怖是恐怖,但是再恐怖,它是人类社会的一个浓缩的镜子,是人类所有在互联网上对这个材料的镜子。这个事情,我们就从过程来讲的话,这个镜子是谁创造,那么这个镜子还会变成什么样子?如果我们假定镜子是真实的光照这种来反应的话,那么假如这个存在的话,我们将这个镜子,我们建个哈哈镜会照出妖精,那么自己变丑了,镜子里照出来也照不出漂亮的人来。这个时候,我们用户每个互联网的用户,他本身去抱怨设计者偏见。那么用户其实承担了至少双重角色,每一个用户作为素材提供者,他在塑造这面镜子,他也是人工智能的创造者。用户都是创造者的情况下,作为一个社会里面的整体的人类,最后我们面对的这个智能系统还是人工意识系统,是邪恶的还是善良的,很大程度就取决于我们自身,而且取决于我们自身的使用过程中是良好的依托。因为如果是永远都是不会是真实的。那一堆坏人在用这个大模型一直特别坏。训练出来的一定是个超级邪恶的魔鬼。
那么我们就是从根源上这个赛道其实承载的任务,从姜斌祥教授刚才的认知改造上的创意到这个的责任,其实应该是很大程度上决定了人类未来的智能社会是什么样子?要的是什么样的?大家每个人有脱不开的责任,只要你去用,那就是创建者。那这个事情是可能一个赛道都容不下,估计还得再切出赛道来。我感觉还是人工意识大会可能要回答。如果只有一个问题的话,还是要回答这个问题。好,谢谢大家。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-23 01:32
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社