在感受科技带来的便利同时,我们都被AI计算着?
算法无处不在,它利用海量数据存储和复杂的分析来做出通常对人类有重大影响的决策。他们推荐书籍和电影供我们阅读和观看,发布他们认为可能相关的新闻报道,估计肿瘤癌的可能性,并预测某人可能是犯罪分子还是值得承担的信用风险。但是,尽管算法在日常生活的各个方面都越来越多地出现,但是Pew研究中心对美国成年人进行的一项调查发现,公众在各种现实生活中使用这些工具时,常常对此表示怀疑。
这种怀疑涵盖了多个方面。从广义上讲,58%的美国人认为计算机程序将始终反映出一定程度的人为偏见,尽管40%的人认为可以以无偏见的方式设计这些程序。在各种情况下,公众担心这些工具可能会侵犯隐私,无法捕捉复杂情况的细微差别或只是将他们正在评估的人员置于不公平的境地。公众对算法决策的看法通常也是高度相关的。调查显示,根据情况或指派的任务,可以在支持或怀疑的情况下查看类似的技术。
公众对计算机AI算法的态度会如何?
为了评估人们在这个相对复杂和技术性话题上的日常看法,该调查向受访者提供了四种不同的方案,在这些方案中,计算机通过收集和分析大量的公共和私人数据来做出决策。这些场景中的每一个都是基于现实世界中算法决策的示例(请参见附文),包括:用于为消费者提供交易或折扣的个人理财评分;对假释人员的刑事风险评估;针对求职者的自动简历筛选程序;以及基于计算机的求职面试分析。该调查还包括有关用户在社交媒体平台上暴露的内容的问题,以评估对更多面向消费者的算法的看法。
以下是主要发现。
1、公众对在具有重大现实后果的情况下使用计算机进行决策的公平性和可接受性表示广泛关注总体上,公众认为算法决策的这些示例对基于计算机的系统正在评估的人们不公平。最值得注意的是,只有大约三分之一的美国人认为视频求职面试和个人理财评分算法对求职者和消费者公平。当直接问到他们是否认为使用这些算法是否可以接受时,大多数公众表示他们不可接受。三分之二的美国人(68%)认为个人财务评分算法不可接受,而67%的人认为计算机辅助视频工作分析算法不可接受。
在发现这些程序无法接受的人们中,有几个主题引起了人们的关注。在回答开放性问题时,一些较突出的关注点包括:
他们侵犯了隐私。这是那些认为个人理财得分不可接受的人最关注的问题,其中有26%的受访者提到。他们不公平。那些担心个人财务得分情况,求职面试小插曲和对求职者进行自动筛选的人经常表示担心这些过程在表达担忧时的公平性。他们从重要决策中去除了人为因素。这是那些认为自动简历筛选概念不可接受的人的最关注的问题(36%的人提到这一点),而在那些担心使用视频工作面试分析的人(16%)中这是一个突出的问题。人类很复杂,这些系统无法捕捉细微差别。这是一个相对一致的主题,在其中的几个概念中都提到了人们在考虑这些场景时会担心的事情。在那些认为使用犯罪风险评分不可接受的人中,这种担忧尤为突出。在这些受访者中,大约有一半提到所有个人都不同,或者这样的系统没有为个人成长或发展留出空间的事实。尽管这些回应中有些是一致的,但调查还强调了美国人对待算法决策的态度在很大程度上取决于这些决策的背景以及可能受影响的人群的特征的方式。
在公众对犯罪风险评分和个人理财评分概念的对比态度中,这种上下文相关性尤为明显。相似的人群认为,这些程序可以有效地完成他们应做的工作,其中54%的人认为个人财务评分算法可以很好地识别出将成为好客户的人,而49%的人则认为犯罪风险分数将有效地确定应假释的人。但是,更多的美国人认为犯罪风险评分对所分析的人群而言是公平的。一半(50%)的人认为这种算法对假释的人是公平的,但只有32%的人认为个人理财评分概念对消费者是公平的。
当涉及支撑社交媒体环境的算法时,用户共享个人信息的舒适度也很大程度上取决于如何以及为何使用其数据。75%的大多数社交媒体用户表示,如果用来推荐他们想参加的活动,他们会很乐意与那些网站共享数据。但是,如果他们的数据被用来传递政治运动的信息,那么这一比例将下降到37%。
在其他情况下,不同类型的用户对他们的个人数据的收集和使用提供不同的看法。例如,年龄在50岁以下的社交媒体用户中,约有三分之二认为社交媒体平台使用其个人数据来推荐与他们可能想认识的人联系是可以接受的。但是,只有不到一半的年龄在65岁以上的用户可以分享这种观点。