关于监控你需要了解的 8 件事

关于监控的 8 个重要真相
人工智能与社会
作者

Rachel Thomas

发布日期

2019年8月7日

超过 225 个警察部门已与亚马逊合作,以获取亚马逊通过其“智能”门铃产品 Ring 收集的视频片段,在许多情况下,这些合作关系得到了纳税人资金的大力补贴。警察部门允许亚马逊直接实时传输 911 呼叫信息,并且亚马逊要求警察部门在谈论该项目时阅读预先批准的稿子。弗雷斯诺县治安官办公室的一名警官表示,如果房主不想与警方分享他们视频门铃的数据,他们可以直接找亚马逊获取。这种庞大监控网络的建立、围绕它的模糊公私合作伙伴关系以及缺乏任何形式的法规或监督,都令人恐惧。这只是最近曝光的与监控技术相关的众多例子之一。

我经常与那些不太关心监控或认为其好处大于风险的人交谈。在这里,我想分享一些关于监控的重要真相。

  1. 监控可以助长侵犯人权甚至种族灭绝的行为
  2. 数据通常会被用于收集时以外的目的
  3. 数据通常包含错误
  4. 监控通常在缺乏问责的情况下运作
  5. 监控改变我们的行为
  6. 监控对边缘化群体的影响尤其严重
  7. 数据隐私是一项公共利益
  8. 我们不必接受侵入性监控

在我写这篇文章时,出现了一些调查性文章,揭露了与监控相关的一些令人不安的新进展。我决定,与其试图将所有内容包含在一篇文章中(那样会太长太密集),不如先分享上面提到的关于监控的事实,因为它们与以往一样相关。

  1. 监控可以助长侵犯人权甚至种族灭绝的行为

数据的敏感属性被滥用有着悠久的历史,包括使用 1940 年美国人口普查将日裔美国人拘禁,比利时殖民政府引入的身份证制度后来在 1994 年卢旺达种族灭绝期间被使用(近百万人遇害),以及IBM 帮助纳粹德国使用穿孔卡计算机识别和追踪数百万犹太人的大规模屠杀。最近,中国西部对一个少数民族的百余万人的大规模拘禁是通过使用一个监控网络实现的,该网络包括摄像头、生物识别数据(包括人脸图像、语音音频和血样)以及电话监控。

1937 年,阿道夫·希特勒会见 IBM 首席执行官 Tom Watson Sr.。来源:计算机历史博物馆

上图是阿道夫·希特勒(最左边)会见 IBM 首席执行官 Tom Watson Sr.(左数第二位),不久后,希特勒于 1937 年授予 Watson 一枚特别的“帝国服务”奖章(有关大屠杀的时间表,请点击此处)。Watson 于 1940 年归还了奖章,尽管 IBM 继续与纳粹进行商业往来。IBM 的技术帮助纳粹在他们占领的国家进行了详细的人口普查,以彻底识别任何犹太裔的人。纳粹集中营使用 IBM 的穿孔卡机器对囚犯进行统计,记录他们是犹太人、同性恋还是吉普赛人,以及他们是死于“自然原因”、处决、自杀还是毒气室的“特殊处理”。IBM 并非简单地出售机器了事。相反,IBM 及其子公司在集中营现场提供定期培训和维护:打印卡片、配置机器以及修理经常出故障的机器。

  1. 数据通常会被用于收集时以外的目的

在上述例子中,数据收集是在种族灭绝发生之前就开始的。IBM 早在大屠杀之前就开始向纳粹德国销售产品(尽管持续了太久),包括帮助阿道夫·希特勒于 1933 年进行的德国人口普查,该普查有效地识别出比之前在德国已知多得多的犹太人。

重要的是要认识到通过监控收集的数据和图像日后可能被武器化。哥伦比亚大学教授吴修铭写道“其中一个(残酷的真相)是,为某个目的创建的数据和监控网络可以而且将被用于其他目的。你必须假设 Facebook 或 Android 保留的任何个人数据是世界各国政府将试图获取或小偷将试图窃取的数据。”

许多数据收集不涉及像种族灭绝这样极端的滥用;然而,在全球白人至上主义、民族沙文主义和威权主义运动死灰复燃之际,不考虑数据和监控如何以及将会被武器化以对付本已脆弱的群体,将是极不负责任的。

  1. 数据通常有错误(且没有纠错机制)

加州执法官员维护的一个疑似帮派成员数据库被发现错误百出,其中包括 42 名不足 1 岁的婴儿被添加到数据库中(其中 28 人被标记为“承认是帮派成员”)。更糟糕的是,一旦被添加到数据库中,没有任何纠正错误或移除人员的流程。

一位NPR 记者讲述了他的经历,他在尝试租房时发现,TransUnion(三大信用机构之一)错误地报告他有两次重罪枪械定罪。经过十几次电话沟通并告知此事将被报道后,TransUnion 才删除了错误。这不是一个不寻常的故事:FTC 在 2012 年对信用报告进行的大规模研究发现,26% 的消费者文件中有至少一个错误,5% 的错误可能具有毁灭性。还有一个更加不透明、不受监管的“第四个信用局”存在:这是一个公司集合,买卖处于银行系统边缘人群(如移民、学生和低收入人群)的个人信息,对于包含何种数据类型没有标准,无法选择退出,也没有识别或纠正错误的系统。

  1. 监控通常在缺乏问责的情况下运作

前一节中的例子令人不安的不仅仅是发生了错误,而是没有办法识别或纠正错误,也没有人对从包含错误的数据中获利的行为负责。通常,即使是正在使用的系统的存在本身也不为公众所知(更不用说这些系统如何工作的细节了),除非记者发现或举报人披露。底特律警察局使用面部识别技术近两年,没有征求公众意见,并且违反了要求政策必须经市警察委员会批准的规定,直到乔治城大学法律中心隐私与技术中心的一项研究引起了对此问题的关注。由亿万富翁 Peter Thiel 创立的国防初创公司 Palantir 与新奥尔良警察局合作开展了一个项目长达 6 年,甚至市议会成员都不知道,更不用说进行任何监督了。

在两项研究发现亚马逊的面部识别软件产生了不准确种族偏见的结果后,亚马逊反驳称研究人员应该修改默认参数。然而,事实证明,亚马逊并没有指导使用其软件的警察部门这样做。监控项目在几乎没有法规、没有监督、对准确性或错误没有问责的情况下运行,在许多情况下,公众甚至不知道正在发生什么。

  1. 监控改变我们的行为

香港数十万人正在抗议一项不受欢迎的新法案,该法案允许将人引渡至中国。通常,香港当地人使用他们的可充值智能卡乘坐地铁。然而,在抗议期间,人们排起长队使用现金购买纸质车票(通常只有游客才会这样做),担心参加抗议活动会被追踪。如果不能选择这种方式,参加抗议的人会不会减少?

在美国,2015 年巴尔的摩警察局使用面部识别技术监视抗议 Freddie Grey 死亡的人们,他是一名在警方拘留期间丧生的年轻黑人男性,并且逮捕了持有未执行逮捕令的抗议者。大规模监控可能会对我们的自由行动、表达自己和抗议的权利产生寒蝉效应。“当我们知道自己‘被记录’时,我们的行为会变得不同。大规模隐私是我们不受监视自由行动的权利,因此在某种意义上,是我们成为真正自己的权利,”哥伦比亚大学教授吴修铭在《纽约时报》上写道。

来自 Geofeedia 公司的宣传单 来源

  1. 监控对边缘化群体的影响尤其严重

监控的应用不均衡,对本已边缘化的人群(包括移民、有色人种和生活贫困的人)造成最大伤害。这些群体受到更严格的执法和监控。乔治城大学法律中心隐私与技术中心的《永久列队》研究了警方对面部识别技术的无监管使用,发现一半的美国人出现在执法数据库中,并指出了错误、种族偏见、滥用以及对公民自由的威胁的风险。研究人员指出,非裔美国人更有可能出现在这些数据库中(许多数据来源于逮捕照片),因为他们被拦下、审问或逮捕的可能性不成比例地高。再举一个例子,对比一下 65 岁以上的人如何通过在线表格轻松申请 Medicare 福利,以及 Medicaid 上一个低收入母亲被问及关于她的情人、卫生习惯、为人父母的不足和个人习惯的侵入性个人问题

在一篇题为为了生存放弃隐私是穷人又一项税的文章中,Ciara Byrne 写道:“当前的公共福利计划要求申请人回答极其详细和个人化的问题,有时还强制家访、药物检测、采集指纹和生物识别信息…… 低收入工人的雇主会监听电话、进行药物检测、监控闭路电视,并将心理测试作为就业条件。一些州的囚犯必须同意进行声纹采集才能打电话。”

  1. 数据隐私是一项公共利益,就像空气质量或安全饮用水一样

数据集合后更能揭示信息。几乎不可能知道你的个人数据在与他人的数据或来自其他来源的数据结合后,或者在对其进行机器学习推断后会揭示什么。例如,正如Zeynep Tufekci在《纽约时报》上写道,Strava 的个体用户无法预测他们的数据集合后如何被用于识别美国军事基地的位置。“数据隐私不像是一种消费品,你点击‘我接受’就万事大吉了。数据隐私更像是空气质量或安全饮用水,是一种无法通过信任数百万人个体选择的智慧来有效监管的公共物品。需要采取更集体的应对措施。”

不幸的是,这也意味着你无法独自完全保护你的隐私。你可能选择不购买亚马逊的 Ring 门铃,但你仍然可能出现在其他人收集的视频片段中。你可能会加强你的在线隐私实践,但仍然会根据他人的行为对你做出推断。正如 Tufekci 教授所写,我们需要集体的应对措施

  1. 我们不必接受侵入性监控

许多人对监控感到不适,但觉得对此没有发言权。尽管监控带来的威胁巨大,但现在采取行动还不晚。我们看到了成功:在社区组织和审计的响应下,洛杉矶警察局废除了一项有争议的项目,该项目旨在预测谁最有可能犯下暴力罪行。底特律的市民、研究人员和活动家有效地引起了人们对底特律警察局对面部识别技术无监管使用的关注,并且一项要求暂停 5 年的法案已提交州议会。旧金山、奥克兰萨默维尔等地的市政府已经禁止警方使用面部识别技术。

更多资源,请查阅:- 乔治城大学法律中心隐私与技术中心 - 数字防御手册