||
人工智能是否可以实现自进化?这是决定人工智能是否能够达到更高层次的关键所在。我想有以下两个思路方法是值得尝试的。具体如下。
第一个方法是,在当前的模型训练结果的基础上,利用当前所得到的人工智能模型对初始训练数据集进行全面的二次标注。最好是在有适当监督的情况下以模型自主为主地进行二次标注。在标注的过程中,将其发现的一些关键性问题依据重要性层级的不同(比如是否是基础性的知识点,或者是否该问题牵涉到了知识图谱中的多个相关知识,等等),标识出来提交给人工进行审核,人工审核之后,再应用这些二次标注的数据进行重新训练。
第二个方法是,不进行训练数据的二次标注,直接针对当前模型进行自查和自纠。比如,可以首先向人工智能发出如下指令:请你任意的找一个话题就这个问题或者话题所涉及的所有相关背景知识以及具体的知识点和参考文献等进行重新回顾和反思,找出其中可能存在的漏洞,并把这些漏洞进行完善和改进,直到做出你认为无法再改进的结果,并给出该如何进行进一步改进的方法思路和需求。每当完成一个学科领域的这种自进化训练时,请暂时暂停下来交由人工专家组进行把关判断和人机交互。最后,将这些自查自纠后的结果,作为训练数据(在标注后)对原有模型进行重新训练。
上述带有外部监督的自进化训练方法的意义在于:一方面,顶级智慧的标志之一是是否能够在反思中发现自己或者是先有知识体系中的缺陷漏洞,以及是否能够对这些缺陷漏洞进行稳妥且高效的完善;另一方面,完全脱离人类智慧监督的人工智能体系,也许会出现难以预料的后果,包括反人类式的后果,因此,有必要在有专家监督和适当地设置一些断点和介入点的条件下,让人工智能进行上述操作。当然,这应该需要具备真正顶级理性智慧同时又具备博爱宽容的人文精神的人类专家组来进行这种监督和把关判断。
最后,为何上述两个方法可以那么做且有必要那样做的根本原因,在于以下两点:首先,目前的人工智能已经进展到了相当高水平了,幻觉和讨好之类的问题越来越少,输出质量和判断质量在整体上已经很高了,而相比之下,早期的训练数据的标注中存在各类瑕疵和错误的概率应该会大大高于用目前已经得到的高水平人工智能进行二次标注的结果概率。其次,早期的训练数据的标注中存在各类瑕疵和错误的概率很容易导致训练效率低下和训练质量不够高等问题,将质量大幅提高后的二次标注结果作为训练数据,应该不仅可以大幅提高训练效率也能大幅提高训练后的模型成品质量。最后,反思人类现有知识体系中的缺漏瑕疵,是一件有潜在的巨大智慧收益的事,不仅可以进一步提高未来的AI的智能水平,还能由此得到许多新的知识和新的智慧。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-3-30 17:46
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社