- TOC {:toc}
不仅是个人危害,更是社会性危害
当美国政府为失业救济金引入人脸识别服务 ID.me 时,该软件未能识别比尔·贝恩 (Bill Baine) 的面部。虽然应用程序提示他可以预约进行线上验证,但他始终无法接通。屏幕上显示等待时间为 2 小时 47 分钟,这个时间数周都没有更新。他尝试致电多个部门,他女儿甚至专程从外地赶来帮助他一天,但直到他几个月没有收到失业救济金,他仍然无法得到一个有用的真人回复,告诉他该怎么做。在贝恩的案例中,问题最终得到了解决,当时一位记者推测问题可能出在不稳定的互联网连接上,并建议贝恩最好前往另一个城镇使用公共图书馆的电脑和网络。即便如此,贝恩仍然花费了数小时才获得批准。
贝恩并非个例。ID.me 推出后的三周内,领取失业救济金的人数骤降了 40%。其中一些被认为是欺诈者,但有多少真正需要救济金的人因此受到错误伤害尚不清楚。这些是个人危害,但同时也存在更广泛的社会性危害:公众不得不花费越来越多时间等待、试图在对用户不友好的自动化官僚系统中寻求所需答案所累积的成本。随着更多人因救济金被错误拒绝而陷入贫困,社会性成本体现为更大的不平等和更深的绝望。此外,对公共服务的信任受到损害,而这种信任很难恢复。
算法潜在危害有多种表现形式:机会丧失(就业或住房歧视)、经济成本(信用歧视、选择受限)、社会损害(刻板印象确认、尊严损害)以及自由丧失(监控增加、监禁过度)。这四类危害都既表现为个人危害,也表现为社会性危害。
算法系统会产生社会性危害,这并不令人意外。这些系统是社会技术性的:它们由人类和团队设计,在设计过程中融入了他们的价值观,并且算法系统不断从根本上不平等、不公正的社会中提取信息,并不可避免地带有这些社会的印记。例如,在 COVID-19 的背景下,政策专家警告说,历史上医疗保健方面的不公平现象有可能渗透到用于预测和应对疫情的数据集和模型中。虽然直观上认为大规模系统会产生最大的社会性危害风险,但算法系统可以通过与其他系统/参与者相互关联而引发的动态来产生社会性危害,比如与广告商或商业驱动媒体的关联,以及它们触及公共重要领域或空间的方式。
然而,在西方,我们对“伤害”的理解仍然常常锚定在个体在某个特定时间点因特定行为受到伤害的概念上。正如法学学者 Natalie Smuha 有力论证的那样,西方国家为应对算法风险和危害而提出和通过的立法,往往侧重于个人权利:例如个人数据的收集和存储方式、不被歧视的权利,或了解何时使用了 AI 的权利。甚至用于评估算法公平性的指标也常常是汇总个体影响,但无法捕捉更长期、更复杂或二级、三级社会性影响。
案例研究:隐私与监控
思考一下在讨论隐私时过度强调个人危害的现象:讨论焦点往往集中在个体用户是否有权选择分享或不分享他们的数据、个体同意的概念,或者是否应该为个人数据付费等提议。然而,普遍的监控从根本上改变了社会:人们可能开始自我审查,不愿意(或无法)为正义或社会变革而发声。乔治城大学法律中心隐私与技术中心主任 Alvaro Bedoya 教授追溯了监控如何被国家用来试图压制进步运动的历史——它针对宗教少数群体、穷人、有色人种、移民、性工作者以及被视为“他者”的人群。正如 Maciej Ceglowski 所写,“环境隐私不是人的属性,也不是他们的数据属性,而是我们周围世界的属性……由于我们的法律将隐私定义为个人权利,我们没有一个机制来决定我们是否想生活在一个监控社会。”
Birhane 等人根据对非洲数据专家的采访写道,即使数据经过匿名化和聚合,它“仍可以揭示整个社区的信息。虽然隐私的概念通常侧重于个体,但人们越来越意识到集体身份在许多非洲社区中也很重要,并且分享有关社区的聚合信息也可以被视为侵犯隐私。” 最近美国的学术研究也强调了思考群体层面的隐私的重要性(无论该群体是由认同自身为该群体成员的个体组成,还是由算法确定的“群体”——例如在亚马逊上购物习惯相似的个体)。因为即使是聚合的匿名数据也可以揭示重要的群体层面信息(例如,通过运动追踪应用程序揭示军事人员的训练地点),这些作者认为,“管理隐私”通常不是“内个体”而是“个体间”的。然而,法律和技术设计的隐私解决方案往往更适合确保个体层面的隐私,而不是协商群体隐私。
案例研究:虚假信息与信任侵蚀
另一个集体社会性危害的例子来自于科技平台(如 Facebook)如何在从菲律宾到巴西等国家的选举中发挥了重要作用,然而要精确量化其影响程度可能很困难(也不一定可能或有用):一个国家的政治制度和参与度这样复杂的事情涉及许多相互关联的因素。但是当“深度伪造”使得“可以创建真实人物从未说过或做过的话和事的音频和视频”,或者当有动机的行动者成功地利用搜索引擎算法放大虚假信息时,产生的(潜在)危害是社会性的,而不仅仅是个人性的。虚假信息以及对机构和同胞公民信任的侵蚀会产生广泛的影响,包括那些从不使用社交媒体的个人。
各国政府试图通过监管手段解决虚假信息问题的努力并未受到所有人的欢迎。“虚假信息”已被反复强调为英国《在线安全法案》或欧盟《数字服务法案》应解决的技术驱动的“社会性危害”之一,并且一系列政府正通过提出或通过许多(在某些情况下不明智的)“反虚假信息”法律来应对这一问题。但是,将权力交给政府来设定“虚假信息”的标准引起了广泛不安。将“虚假信息”具象化为一种社会性危害,是否会成为政府压制政治异议或削弱弱势对手的合法化工具?这是一个合理且重要的担忧——然而,简单地将权力留在多数位于美国且不受约束的科技公司手中也绝非解决方案。例如,如果像 Twitter 这样的美国公司禁止传播虚假信息的民选巴西总统博索纳罗,其合法性影响是什么?我们如何确保科技公司充分投资于全球治理努力,而不是对局部的(即 主要在美国的)虚假信息担忧做出临时反应?对平台监管采取放任态度并不会减轻平台处理虚假信息工作中的政治复杂性。
个人危害,个人解决方案
如果我们将个人解决方案视为唯一的选择(在政策、法律或行为方面),我们往往会限制我们能识别的危害范围或我们面临的问题的性质。举一个与 AI 无关的例子:牛津大学教授 Trish Greenhalgh 等人分析了西方领导人缓慢地不愿接受新冠病毒通过空气传播(例如,它可以像香烟烟雾一样在空气中悬浮和漂浮,需要口罩和通风来解决),而不是坚持飞沫传播教条(例如,洗手是主要预防措施)。他们强调的一个原因是,西方将个人责任视为大多数问题的解决方案。洗手是一种符合个人责任理念的解决方案,而对共享室内空气质量的集体责任则不符合。允许的解决方案集有助于塑造我们识别的问题。此外,最近的研究表明,“社会中的人际信任水平”是哪些国家最成功地应对了 COVID-19 的有力预测因素,这一事实应该引起我们深思。个人主义的框架会限制我们对所面临问题以及哪些解决方案可能最具影响力的想象。
与环境危害的类比
在环境法通过之前,许多现有的法律框架并不适合解决环境危害。也许一家化工厂每周向空气中排放一次废气。周边地区的许多人可能没有意识到他们在呼吸被污染的空气,或者可能无法将空气污染与新的健康状况(例如哮喘,这可能与多种环境和遗传因素有关)直接联系起来。
环境问题与 AI 伦理之间有许多相似之处。环境危害包括因饮用污染水或呼吸污染空气而出现特定健康问题的个人所遭受的个体危害。然而,环境危害也是社会性的:污染水和污染空气的社会成本可以以微妙、令人惊讶且影响深远的方式产生反响。正如法学教授 Nathalie Smuha 所写,环境危害往往是累积性的,并随时间推移而加剧。也许炼油厂每一次单独排放废弃化学品可能影响微乎其微,但累积起来就变得非常可观。在欧盟,环境法允许通过机制来证明社会性危害,因为基于个人权利来挑战许多环境危害将非常困难。Smuha 认为,这与 AI 伦理有很多相似之处:对于不透明的 AI 系统,随着时间的推移,很难证明其与社会性危害之间存在直接的因果关系。
前进方向
在很大程度上,我们的信息是传达给科技公司和政策制定者的。仅仅关注科技和 AI 产生的潜在个人危害是不够的:科技和 AI 的更广泛的社会性成本至关重要。
但我们这些不在技术政策圈子内的人也扮演着至关重要的角色。防范“社会性危害”论述被政治权力掌握者利用来使其不当干预合法化并进一步巩固其权力的风险的一种方式,就是将“社会性危害”的话语权争取过来,使其成为它可以成为的那种民主和促进民主的工具。当我们假装社会性危害不存在,或者当我们承认它们存在却束手无策时,我们所有人都会蒙受损失。而那些权力最弱的人,比如比尔·贝恩,很可能遭受不成比例的损失。
在他的《技术与社会》通讯中,L.M. Sacasas 鼓励人们在使用特定技术之前问自己41 个问题。所有这些问题都值得阅读和思考——但我们列出了一些特别相关的问题,以帮助您入门。下次您坐下来登录社交媒体、在线订餐、在约会应用程序上右滑或考虑购买 VR 头戴设备时,请问自己:
- 这项技术如何赋予我能力?是以谁为代价?(Q16)
- 使用这项技术在我心中对他人产生了什么感受?(Q17)
- 我使用这项技术对他人施加了什么限制?(Q28)
- 如果每个人都完全按照我使用这项技术的方式使用它,世界会变成什么样?(Q37)
- 我使用这项技术是否让我更容易地像对邻里没有责任一样生活?(Q40)
- 我能否为这项技术所赋予的行动负责?如果不能,我会感觉更好吗?(Q41)
我们每个人都有责任提高自己对所使用技术社会性影响的敏感度。