更新:USF 应用数据伦理中心的第一年将得到 Craig Newmark Philanthropies (craigslist 创始人 Craig Newmark 的机构)的慷慨资助。阅读 官方新闻稿 了解更多详情。
虽然数据科学和机器学习技术的广泛应用带来了许多积极的发现,但它也带来了风险并造成了损害。亚马逊 (Amazon)、IBM (IBM) 和其他公司销售的面部识别技术被发现对黑人女性有显著更高的错误率,然而这些相同的公司却仍在向警方出售面部识别和预测性警务技术,没有任何监督、法规或问责机制。数百万人的照片被汇编成数据库,通常未经本人同意,并与外国政府、军事行动和警察部门共享。主要的科技平台(例如谷歌旗下的 YouTube,其算法会自动播放视频)被证明会不成比例地推广阴谋论和虚假信息,助长了人们走向极端化,形成白人至上等有害观点。
为了应对这些风险和危害,我正在协助成立一个全新的应用数据伦理中心 (CADE),该中心将设在旧金山大学的数据研究院内,旨在通过教育、研究、公共政策和公民倡导来解决围绕数据滥用的问题。第一年将包括一个科技政策研讨会、一系列数据伦理研讨会和数据伦理课程,所有这些都将向公众开放。
数据和人工智能的滥用包括不公正偏见的编码和放大、监控的增加和隐私的侵蚀、虚假信息的传播和阴谋论的放大、预测性警务部署缺乏透明度或监督,以及科技公司缺乏问责制。这些问题令人担忧、棘手、紧迫且具有系统性,需要广泛而多样化的人群共同努力才能解决。许多个人、组织、机构和整个领域已在努力解决这些问题。 我们不会闭门造车,而是将利用现有工具并汇聚来自不同背景的专家。多样性是解决科技伦理问题的关键组成部分,我们致力于邀请各种背景的演讲者,并支持来自代表性不足群体的学生和研究人员。
我是新中心的主任。既然您正在阅读 fast.ai 的博客,您可能对我的工作有所了解,但如果还不熟悉,您可以在这里阅读我的背景介绍。我于 2010 年在杜克大学获得博士学位,被《福布斯》杂志评为“AI 领域 20 位杰出女性”之一,是 fast.ai 的联合创始人,并自 USF 数据研究院于 2016 年成立以来一直在那里担任研究员。在过去的几年里,我在数据伦理问题上做了大量写作和演讲。
USF 数据研究院是什么?
应用数据伦理中心将设在位于旧金山市中心的 USF 数据研究院内,并将能够利用我们现有的社区、合作伙伴关系和成功经验。数据研究院成立三年以来,已有超过 900 名来自当地科技公司的企业家和员工在这里参加了夜间和周末课程,我们已向代表性不足群体的人们发放了超过 177 份多元化奖学金。现设在数据研究院内的USF 数据科学硕士项目现已进入第八个年头,所有学生都在我们的 160 家合作公司完成了为期 8 个月的实习项目。Jeremy Howard 和我自三年前 USF 数据研究院刚成立时就参与其中;这里是我们教授深度学习、机器学习、计算线性代数和自然语言处理 (NLP) 课程线下版本的地方,我们也都是数据研究院会议轨道的负责人。此外,Jeremy 去年作为数据研究院的一部分启动了Wicklow 医学人工智能研究倡议。
第一年你们会做什么?我如何参与?
数据伦理系列研讨会:我们将邀请数据伦理问题的专家进行向社区开放的讲座,并在线分享高质量的讲座录音。我们很高兴邀请到 Deborah Raji 作为我们的第一位演讲者。请于 8 月 19 日星期一加入我们,参加包含餐饮的招待会以及 Deborah 关于“可操作审计与算法正义”的讲座。
科技政策研讨会:系统性问题需要系统性解决方案。个体行为改变无法解决激励机制的结构性错位和问责制的缺失。我们需要深思熟虑且充分知情的法律来保障人权,我们不希望立法是由企业说客起草的。当涉及到制定这一领域的政策时,太少的立法者拥有必要的技术背景,而对科技行业有所了解的人中,又太少拥有必要的政策背景。我们将举办一个为期三天的科技政策研讨会,暂定于 11 月 15 日至 17 日举行。
向社区开放的数据伦理证书课程:在过去三年里,USF 数据研究院一直在旧金山市中心提供非全日制的夜间和周末课程,包括 Jeremy Howard 主讲的广受欢迎的“面向程序员的实用深度学习”课程。您无需是 USF 的学生即可参加这些课程,超过 900 人(其中大部分是职业人士)曾参加过数据研究院的往期课程。我将于 2020 年 1 月至 2 月期间,每周一个晚上教授一门数据伦理课程。
数据科学硕士学生的必修数据伦理课程:USF 已新增一门必修数据伦理课程,所有数据科学硕士项目的学生都将学习这门课程。
数据伦理研究员:我们计划为那些致力于应用数据伦理问题研究的人员提供研究资助,特别关注具有直接实际影响的工作。研究员将可以使用 USF 数据研究院的资源、社区和课程。我们将于今年秋季开始接受申请,提供为期一年的研究资助,起始日期为 2020 年 1 月或 2020 年 6 月。
如果您对任何这些即将开展的倡议感兴趣,请订阅我们的邮件列表,以便在申请开放时收到通知。
其他常见问题
问:这对您参与 fast.ai 有什么影响?
答:我们计划在 2020 年年中通过 fast.ai 发布一门数据伦理课程。(我们之前在“面向程序员的深度学习”课程中涵盖了伦理问题,我们最近的代码优先 NLP 入门课程包含了关于不公正偏见和虚假信息的课程。)我将继续在 fast.ai 网站上撰写博客,并且仍然致力于fast.ai 的使命。
问:考虑到人工智能的滥用,您在 fast.ai 致力于让更多人接触人工智能的工作难道不危险吗?
答:危险之处在于由一个同质化且排外的群体来设计影响我们所有人的技术。亚马逊 (Amazon)、Palantir (Palantir)、Facebook (Facebook) 等公司通常被认为非常有名望,且只雇佣具有“精英”背景的人,但我们可以看到这些公司正在造成的广泛危害。我们需要更广泛、更多样化的人群参与人工智能,既要利用其积极方面,也要解决技术的滥用问题。请参阅我在TEDx 旧金山的演讲,了解更多详情。
问:你们会制定一套人工智能伦理原则吗?
答:不会,目前已经有很多套人工智能伦理原则了。我们不会试图重复他人的工作,而是希望能推广已有的优秀工作(同时进行我们自己的研究)。
问:您认为科技领域最大的伦理问题是什么?
最令我担忧的一些问题包括不公正偏见的编码和放大、监控的增加和隐私的侵蚀、虚假信息的传播和阴谋论的放大、预测性警务部署缺乏透明度或监督,以及科技公司缺乏问责制。要了解更多信息,请参阅下方链接的一些我的讲座和文章。
以下是一些您可能感兴趣的我的讲座
- 分析和预防机器学习中的无意识偏见 (QCon.ai 主题演讲)
- 人工智能需要我们所有人(TEDx 旧金山,前半部分涵盖种族和性别偏见、虚假信息以及监控/预测性警务的风险)
- 自然语言处理的新时代(SciPy 主题演讲,后半部分涵盖虚假信息)
- 关于人工智能伦理和偏见的一些健康原则 (PyBay 主题演讲)
- 词嵌入、机器学习中的偏见、为什么你不喜欢数学以及为什么人工智能需要你(关于词嵌入和机器学习中偏见的研讨会)
- “深度伪造”的威胁(NPR 播客 1A 的一集)
以及之前的一些博客文章
- 关于人工智能令我害怕的五件事
- 人工智能伦理资源
- 《哈佛商业评论》对算法和偏见的误解
- 关于 Facebook 和伦理你需要知道的事情
- 与《纽约时报》首席数据科学家关于科技伦理的对话
- 这位谷歌高管在《纽约时报》上是信息严重不足还是在撒谎?
- 你可以做的 16 件事,让科技更道德
- 人工智能领域的多元化危机
我希望您能于 8 月 19 日星期一晚上在旧金山市中心参加我们的第一场数据伦理研讨会,请订阅我们的邮件列表以保持联系!