||
70年前,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)曾设想过一个机器人将以无数种方式为人类服务的世界,他为机器人配备了内置的防护装置——现在被称为阿西莫夫的机器人三定律,以防机器人伤害到人。
马萨诸塞大学阿默斯特分校的机器学习研究者、主要作者菲利普·托马斯说,保证机器行为的安全和公平仍然是一个问题。”当有人应用机器学习算法时,很难控制它的行为,”他指出。他和合著者说,这有可能导致一些算法产生不良后果,这些算法指导了从自动驾驶汽车到胰岛素泵到刑事判决的所有方面。
托马斯和他的同事尤里·布鲁恩、安德鲁·巴托以及麻省大学阿姆赫斯特分校的研究生斯蒂芬·吉格尔、巴西格兰德索尔联邦大学的布鲁诺·卡斯特罗·达席尔瓦和斯坦福大学的艾玛·布鲁恩斯基尔本周在《科学》杂志上撰文,介绍了一个设计机器学习算法的新框架,使计算机学习算法更容易实现用户指定算法的安全性和公平性约束。
https://www.sciencedaily.com/releases/2019/11/191121141325.htm
Journal Reference:
Philip S. Thomas, Bruno Castro Da Silva, Andrew G. Barto, Stephen Giguere, Yuriy Brun, Emma Brunskill. Preventing undesirable behavior of intelligent machines. Science, 2019 DOI: 10.1126/science.aag3311
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-9-27 07:03
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社