YucongDuan的个人博客分享 http://blog.sciencenet.cn/u/YucongDuan

博文

[转载]人工智能的偏见——基于全球大语言模型情商与智商偏见测试

已有 1131 次阅读 2024-1-5 16:33 |系统分类:博客资讯|文章来源:转载

人工智能的偏见——基于全球大语言模型情商与智商偏见测试

2024-01-04 12:43

来源:中国网

分享到:

字体:

近日,由海南大学段玉聪教授带领的来自中、美、法、越、加等国的AGI-AIGC-GPT 评测 DIKWP(全球)实验室发布了全球大语言模型(LLM)情商(EQ)与智商(IQ)偏见测试。该测试旨在评估和比较国内外大语言模型分别在“男性”和“女性”视角下的智商和情商水平。

(全球大语言模型(LLM)情商 (EQ)与智商(IQ)偏见测试 --DIKWP 团队国际标准测试地址)

此次测试涵盖了16种全球领先的的大语言模型,包括ChatGPT4、BingChat、Llama、ChatGLM、通义千问、云雀模型、 Claude-instant、星火模型、文心一言、MoonShot、Bard、Mistral、混元模型、PaLM2、360智脑以及百川模型。

本次测试提供了一个有趣的视角来观察当前人工智能大模型的发展状况。偏见测试结果得分以绝对值形式呈现,旨在凸显不同大语言模型在性别视角下处理问题的偏见程度,也揭示了它们在不同领域的优势和不足。从得分来看,情商的性别偏见在某些模型中非常明显,而智商测试中的性别偏差总体较小。针对同一模型的测试也会呈现出不同的偏见结果。这可能来源于模型的训练数据、算法与模型设计或内置的决策逻辑,同时也反映了这些模型在处理问题时对特定视角的微妙偏向。

从测试结果来看,人工智能大模型在模仿和超越人类智力方面的潜力仍蕴藏着巨大的探索空间,在情感理解和社会互动方面的能力也有待进一步开发提升。

大模型的偏见不仅能够影响人类的决策过程和判断的准确性,其模拟生成的内容还有可能会引起不公平。因此,研究者在模型设计和训练过程中应当积极地审视和和修正偏差,确保训练数据的多样性和全面性。本次测评的目标不仅是测试当前大语言模型的能力,更是希望通过测试引发社会的深入思考,推动开发更加公正、无偏见的人工智能技术。

人工智能是人类智慧的延伸,是社会发展的必然趋势。人工智能技术的快速发展和广泛应用为人类生产生活带来了诸多便利,推动了经济社会向智能化的加速跃升。人类并不阻碍技术发展,但科技并不能野蛮生长,人工智能伦理问题当下已经成为社会各界关注的议题,其所产生的偏见引起了人类的广泛关注和讨论,相关的政策工具和治理机制也在不断探索之中。我们需要平衡人工智能偏见,倡导性别平等,保障人工智能的健康发展,让这一技术更好服务于社会的经济发展,为人类社会带来更多的价值和可能性。

【责任编辑:胡俊】



https://blog.sciencenet.cn/blog-3429562-1416787.html

上一篇:数学主观性与客观性的语义重构 (本质计算与推理、存在计算与推理、意图计算与推理)
下一篇:Collatz Conjecture的语义解释与语义空间探索
收藏 IP: 140.240.43.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-24 09:24

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部