|
虚拟世界中,你我都是小白鼠
每当我们上网时,可能不知不觉中就成为了某项实验的一部分。数字平台跟踪用户的行为和他们对功能的反应。越来越多地,这些测试对参与者产生了现实世界的影响。
在我自己关于零工经济的研究过程中,我见证了这一点,研究了提供付费任务和工作的招聘平台(H. A. Rahman 等。Acad. Mgmt. J. 66, 1803–1830; 2023)。平台尝试使用不同的方法来评分人们的工作,同时改变他们的技能如何在个人资料页面上展示以及他们如何与承包商互动。这些变化影响了人们的评级和他们收到的工作量。
二十年前,这样的实验是透明的。零工可以选择参与或退出测试。但今天,这些实验是秘密进行的。当零工创建账户时,他们就放弃了自己的权利。
被用作实验对象可能会让人感到不安和无力。想象一下,每次你进入办公室,它都被重新设计了。你的评估方式和你与上级沟通的方式也发生了变化,但没有你的同意。这种持续的变化会影响你对工作的看法和感受。
零工们表示,在注意到未经他们同意就在招聘平台上频繁进行更改后,他们开始将自己视为实验室老鼠而不是受重视的用户。因为他们的消息被聊天机器人拦截,他们无法向平台投诉或选择退出更改。挫败感爆发,冷漠随之而来。他们的收入和幸福感下降。
这令人担忧,不仅因为它影响到零工,而且也因为学者越来越多地参与到设计数字实验中。社会科学家们遵循严格的机构审查委员会(IRB)程序,这些程序管理涉及人的实验的伦理——例如通知他们并要求同意——但这些规则不适用于科技公司。这就导致了可疑的做法和潜在不可靠的结果。
科技公司使用其服务条款授权他们收集数据,而无需有义务通知人们他们参与了实验,或为他们提供任何退出的机会。因此,数字实验面临很少的监督。
考虑到科技公司触及数百万人,使用他们的数据进行的实验可以是信息丰富的。例如,一项由学术人员和职业平台LinkedIn于2022年进行的研究回答了人们的社交网络中的弱联系如何影响就业结果的问题(K. Rajkumar 等。Science 377, 1304–1310; 2022)。该平台改变了为超过2000万用户推荐新联系人的算法。这些人对此一无所知,尽管这可能会影响他们的就业前景。
科学家本身也可能受到这种隐藏做法的影响。例如,9月份,《科学》杂志承认,它在社交媒体平台Facebook上发表的探索政治极化的研究受到了损害,因为这家科技巨头在研究期间更改了其算法,而科学家们并不知道(H. Holden Thorp 和 V. Vinson Science 385, 1393; 2024)。
学者们必须对他们通过与科技公司合作产生的数据更加谨慎,并重新思考他们如何进行这项研究。需要有一个道德健全的框架来确保科学-行业合作不会危及公众对科学的信任。
首先,学者应该通过审计潜在合作伙伴并进行彻底的伦理检查,以确保他们遵循IRB原则。他们可以与或创建中间监督组织合作,正如总部位于英国牛津的Fairwork那样,保护零工权利,审计实验实践并将透明度引入数据收集。它们可以传播和执行实验的道德规范,告知行业合作伙伴如何进行符合伦理的研究并对它们进行问责。
其次,学者需要评估实验的社会影响,以研究和减轻任何潜在的伤害。这并非微不足道,因为实验很少考虑参与者的福祉,也不评估潜在的意外后果。
科技公司应该建立自己的内部审查委员会,有权评估和审查实验。行业需要培养一种道德健全的实验文化,包括理解参与者可能面临的潜在的不利影响。
监管至关重要。一个很好的例子是欧盟的人工智能法案,它以消费者的隐私权和保护为中心,旨在建立一个“安全且受控的实验空间”。
消费者和用户应该组建第三方组织,类似于零工使用的工会,对公司是否要求同意和允许人们选择退出实验以及它们的透明度进行评级。
推动科学-行业实验前沿的发展需要实践、规则和法规,以确保对人民、组织和社会都有互惠的结果。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 19:30
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社