与《纽约时报》首席数据科学家就技术伦理进行对话

ai-in-society
作者

Rachel Thomas 和 Chris Wiggins

发布时间

2019 年 3 月 4 日

Rachel 的留言:虽然我对技术的积极潜力感到兴奋,但我对技术对社会产生的负面影响感到担忧,并且我很想知道我们如何能够推动科技公司做得更好。我最近参加了一次讨论,会上《纽约时报》首席数据科学家Chris Wiggins分享了一个有用的框架,用于思考我们可以用来影响科技公司走向责任和道德的不同力量。我就此话题采访了 Chris,并在此总结了这次采访。

自 2014 年 1 月起担任《纽约时报》首席数据科学家之外,Chris Wiggins 还是哥伦比亚大学应用数学教授,哥伦比亚大学数据科学研究所的创始成员之一,以及 HackNY 的联合创始人。他在哥伦比亚大学共同教授一门关于数据历史与伦理的课程。

影响科技公司使其更负责任、更合乎道德的方式

Chris 提出了一个框架,展示了作用于科技公司及其内部的不同力量

  1. 外部力量
    1. 政府力量
      1. 监管
      2. 诉讼
      3. 对监管和诉讼的担忧
    2. 民众力量
      1. 消费者抵制
      2. 数据抵制
      3. 人才抵制
    3. 其他公司的力量
      1. 将责任视为附加价值
      2. 直接互动,例如封禁平台
      3. 媒体
  2. 内部力量
    1. 我们如何定义伦理
      一个关键例子:贝尔蒙特原则
      1. 尊重个人
      2. 受益
      3. 公正
    2. 我们如何进行伦理设计
      1. 始于领导层
      2. 包括监测用户体验的重要性

两大类别是内部力量和外部力量。Chris 分享说,在《纽约时报》,他通过一个数据治理委员会在负责任数据管理方面的工作看到了内部流程。为 GDPR 做准备有助于聚焦这些讨论,同时也促使他们积极主动地为 Chris 和他的团队预计未来会出现的其他数据监管做准备。《纽约时报》已经标准化了流程,包括数据删除和保护个人身份信息 (PII)。例如,任何时候当你存储聚合信息时,比如 页面浏览量,你不需要保留浏览页面个人的 PII。

如何影响科技公司:外部力量

Chris 引用了 Bill Janeway 的著作《创新经济中的资本主义实践》,认为该书对他在思考影响公司的外部力量方面产生了影响。Janeway 写道,这是一个政府、民众和公司三者之间不稳定博弈。政府力量可以采取监管和诉讼的形式,甚至仅仅是对监管和诉讼的担忧。

第二种外部力量是民众力量。运用民众力量最著名的例子是消费者抵制——当我们不同意公司的做法时,不给它们钱。还有数据抵制,即不向公司提供我们的数据,以及人才抵制,即拒绝为它们工作。在过去一年里,我们看到谷歌(抗议 Maven 项目军事合同和被审查的中国搜索引擎)、微软(抗议 Hololens 军事合同)和亚马逊(抗议向警方出售人脸识别技术)的工程师们开始行使这种力量要求改变。然而,大多数工程师和数据科学家仍然没有意识到他们拥有的集体力量。工程师和数据科学家需求量很大,他们应该利用这一点来推动公司更加道德化。

第三种外部力量是其他公司的力量。例如,公司可以将责任作为附加价值的一部分,使其区别于竞争对手。搜索引擎DuckDuckGo(格言:“不跟踪你的搜索引擎”)始终将隐私作为其吸引力的核心部分。苹果公司近年来以倡导用户隐私而闻名。消费者保护在七八十年代曾是一个流行的概念,但如今多少有些失宠。更多公司可以将消费者保护和责任纳入其产品以及作为其与竞争对手区分开来的要素。

公司也可以直接相互施加影响,例如,当 苹果在谷歌和 Facebook 违反其隐私政策后吊销了它们的开发者证书,从而将其“封禁平台”(de-platformed)。最后,媒体也算作影响其他公司的公司。这里有很多相互联系:媒体作为公民、选民和消费者影响民众,进而直接影响政府和公司。

内部力量:定义伦理 vs 伦理设计

Chris 说,区分我们如何定义伦理与 我们如何进行伦理设计非常重要。当人们在这两者之间跳跃时,讨论很快就会变得混乱不清。

定义伦理包括确定你的原则。伦理具有细粒度:我们需要原则足够细致才能有意义,但又不能细致到成为随时变化的依赖于语境的规则。例如,“不作恶”就太宽泛而没有意义。

伦理原则与其实现是不同的,定义原则意味着愿意致力于去做工作,以定义遵循这些原则的更具体规则,或者随着技术或语境的变化,以更符合你原则的方式重新定义它们。例如,美国权利法案中阐述了许多伦理原则,而我们花费了接下来的几个世纪来弄清楚这在实践中意味着什么。

伦理设计

在伦理设计方面,Chris 指出这需要从高层开始。领导者设定公司目标,然后将其转化为具体目标;这些目标再转化为关键绩效指标 (KPI);这些 KPI 用于日常运营。应该利用运营和 KPI 的反馈来持续反思伦理原则是否得到了维护或挑战,或者重新审视系统存在的不足之处。运营中大多数主要科技公司都忽视的一个方面是监测用户体验,特别是糟糕的用户体验。当公司使用承包商来进行内容审核(而不是全职员工)时,这很大程度上说明了它们对负面用户体验的重视程度很低。虽然内容审核处理了负面用户体验的一个方面,但还有许多其他方面。

Chris 在一篇博文中写到了这个话题,题为《伦理原则、OKR 和 KPI:YouTube 和 Facebook 可以从 Tukey 学到什么》,其中写道:“这种监测的一部分不会是定量的。尤其因为我们无法提前知道用户将经历的所有现象,我们也无法提前知道哪些指标可以量化这些现象。为此,数据科学家和机器学习工程师必须与用户体验研究人员合作或学习其技能,让用户拥有发言权。

从贝尔蒙特报告和 IRB 中学习

伦理的历史讨论得不够充分,许多人对此不太熟悉。我们可以从其他领域学到很多,例如人体实验研究。在可怕且不道德的塔斯基吉梅毒研究之后,1974 年通过了《国家研究法》,研究人员花费大量时间确定和形式化伦理原则。这些原则被记录在用于人体实验伦理研究的贝尔蒙特原则中。这个伦理框架为后来机构审查委员会 (IRBs) 的创建提供了信息,IRBs 用于审查和批准涉及人体实验的研究。研究伦理如何通过贝尔蒙特原则得到实际应用非常有益,因为它们已经通过现实世界的实施经受了近 40 年的压力测试,并且有大量文献讨论它们的用途和局限性。

贝尔蒙特原则的核心宗旨可概括如下

  1. 尊重个人
    1. 知情同意;
    2. 尊重个人的自主性;
    3. 尊重受影响的个人;
    4. 保护自主性或决策能力受损的个人。
  2. 受益
    1. 不造成伤害;
    2. 评估风险。
  3. 公正
    1. 平等考量;
    2. 公平分配研究收益;
    3. 公平选择受试者;
    4. 公平分担负担。

请注意,受益原则可被用于支持目的证明手段正当的论点,而尊重个人原则则可被用于支持手段证明目的正当的论点,因此这里涵盖了许多内容。

Kramer 等人 2014 年发表的一篇论文后,这个话题引起了全国性的新闻关注。该论文中 Facebook 研究人员操纵了用户的情绪,引起了大量批评和担忧。随后另两位 Facebook 研究人员发表了一篇论文,题为《IRB 的演进:为行业研究建立稳健的审查》,该论文表明 Facebook 现在已经实施了某种形式的 IRB 设计。我从研究伦理学家关于人体实验研究的工作中学到了很多,特别是贝尔蒙特原则。

对于有兴趣深入了解此话题的人,Chris 推荐 Matthew Salganik 的书 《循序渐进:数字时代的社会研究》 第 6 章,Chris 在哥伦比亚大学教授的关于数据历史与伦理的课程中使用了这本书。Salganik 是普林斯顿大学教授,从事计算社会科学研究,同时也是《纽约时报》的驻校教授。

Chris 还说他从法律理论家那里学到了很多。大多数工程师可能没有太多思考过法律理论家,但他们在处理标准、原则和规则之间的平衡方面有着悠久的历史。

高影响力领域

伦理不是一个 API 调用。它需要在高层发生。当领导者认真对待它时,才会产生最大的影响。在组织结构图中,负责谈论伦理的人员层级,非常能说明公司对伦理的重视程度(因为对于大多数公司来说,这不是 CEO,尽管应该是 CEO)。

如上所述,工程师不了解自己的力量,他们需要开始更多地运用这种力量。Chris 回忆起听到一群数据科学家说,他们希望自己的公司能有另一家公司拥有的某种伦理政策。但他们可以实现这一点!他们只需要决定利用他们的集体力量。

Chris 推荐的书籍和其著作

fast.ai 关于技术伦理的其他博文