我最新的“问数据科学家”帖子是受一位计算机科学学生的启发,他来信询问如何从事与AI社会影响相关的政策制定职业的建议。我意识到外面有很多很棒的资源,我想把所有链接汇编在一个地方。
你可以在这里找到我之前的问数据科学家建议专栏。
科技领域的每个人都应该关注我们工作的伦理含义,并积极探讨这些问题。人文学科和社会科学在解决伦理问题方面极其相关和重要。虽然技术伦理不是一个新领域(传统上它是在科学、技术与社会(STS)或信息科学系内研究的),但许多科技行业的从业者现在正开始关注这些问题,并且对该主题的兴趣比以前广泛得多。
从事AI伦理工作有多种形式,包括:创办科技公司并以合乎伦理的方式构建产品;倡导并致力于制定更公正的法律和政策;努力追究不当行为者的责任;以及在该领域进行研究、写作和教学。在本文的其余部分,我包含了许多进一步资源的链接,以及一些具体的建议。不要被这些列表的长度吓倒!本文旨在成为您可以根据需要查阅的资源
关于一些AI伦理问题的概述,我建议你看看我最近在PyBay上关于该主题的主题演讲。通过一系列正面和负面的案例研究,我反驳了关于技术中常导致人类伤害的4个误解,并提供了一些更健康的原则。
提升你的技术技能
对于任何对AI社会影响感兴趣的人,我建议你积累机器学习的技术知识。即使你不打算成为一名程序员或深度学习实践者,亲手了解这项技术的工作原理和使用方法也会有所帮助。我鼓励所有对AI伦理和政策感兴趣的人学习Python并参加面向程序员的实用深度学习课程(唯一的前置条件是一年的编程经验)。
组建一个读书小组
CU Boulder信息科学教授Casey Fiesler,创建了一个众包表格,其中包含200多门技术伦理课程,并附有其中许多课程的大纲链接。即使你的大学没有开设技术伦理课程,我也鼓励你发起一个关于技术伦理的社团、读书小组或学生主导的课程,而这些大纲可以作为你创建自己的资源的有用参考。
对于不是大学生的读者,可以考虑在工作场所组建一个技术伦理读书小组(每周一次午餐时间聚会,讨论不同的阅读材料),或者在你所在的城市组织技术伦理主题的线下交流会(meetup)。
值得关注的10位AI伦理专家
以下是我欣赏并推荐关注的十位AI伦理领域的研究人员。他们都有很多优秀的文章/讲座等,尽管我只链接了他们各自的一项工作供你入门
- Zeynep Tufekci是北卡罗来纳大学信息与图书馆科学学院的教授,并撰写纽约时报专栏。阅读她的《麻省理工技术评论》文章,社交媒体如何将我们从解放广场带到唐纳德·特朗普。
- Timnit Gebru在斯坦福大学获得了计算机科学博士学位,刚在微软研究院完成博士后研究,并且是Black in AI的创始人。阅读她的论文数据集的数据表。
- Latanya Sweeney是哈佛大学政府与技术教授,是出版物Technology Science的主编,并担任哈佛大学数据隐私实验室主任。她曾任美国联邦贸易委员会(FTC)首席技术官。观看她在FATML会议上的主题演讲,拯救人类。
- Arvind Narayanan是普林斯顿大学计算机科学教授,研究方向包括数字隐私、信息安全、加密货币与区块链、AI伦理和技术政策。观看他在FATML会议上的教程,公平的21种定义。
- Kate Crawford是纽约大学AINow研究所的联合创始人,微软的首席研究员,以及纽约大学的杰出研究教授。观看她的演讲AI的政治学。
- danah boyd是微软研究院的首席研究员,并且是Data & Society的创始人。观看她在Republica会议上的主题演讲,算法世界如何被颠覆。
- Joy Buolamwini是算法正义联盟的创始人,并刚在麻省理工学院媒体实验室完成博士学位。在gendershades.org上阅读并观看她关于计算机视觉中种族偏见的研究。
- Renee DiResta是New Knowledge的研究总监,非营利组织Data for Democracy的政策负责人,并就计算宣传和虚假信息向国会作证。她是《连线》(Wired)杂志的常驻撰稿人。阅读她的文章接下来:一个更好的推荐系统。
- Alvaro Bedoya是乔治城大学法学院隐私与技术中心的创始执行董事。他此前曾是参议院工作人员,负责移动位置隐私、健康数据隐私、NSA透明度和生物识别隐私等问题。阅读他的《纽约时报》文章,为什么硅谷说客喜欢大型、宽泛的隐私法案
- Guillaume Chaslot曾是YouTube工程师,是AlgoTransparency的创始人,并与《华尔街日报》和《卫报》合作调查YouTube。阅读他关于算法如何学会诋毁媒体的帖子。
机构和奖学金/研究员项目
以下列出的机构都提供了多种参与方式,包括:收听他们的播客和观看视频(无论你身在何处),参加线下活动,或申请实习和研究员项目来资助你在这方面的工作
哈佛大学的伯克曼·克莱因互联网与社会中心是一个研究中心,致力于汇聚全球各地的人们,共同应对互联网带来的巨大挑战。他们的项目包括一个研究员项目、实习,以及Assembly,这是一个为期4个月的项目,旨在让技术专家、管理者和政策制定者共同应对与人工智能伦理和治理相关的新兴问题。
Data & Society是由danah boyd在纽约市创立的一个非营利研究机构。他们有一个为期一年的研究员项目,对数据科学家和工程师、律师和图书管理员、民族志学者和创作者、历史学家和活动家开放。
AI Now Institute由Kate Crawford和Meredith Whittaker创立,并设在纽约大学。他们关注四个领域:权利与自由、劳动与自动化、偏见与包容、以及安全与关键基础设施。
乔治城大学法学院隐私与技术中心是一个智库,专注于隐私和监控法律与政策——及其影响的社群。他们的研究包括关于美国警方不受监管地使用人脸识别技术的永久排队(The Perpetual Line-Up)。
Data for Democracy是一个由志愿者组成的非营利组织,参与了各种项目,包括与ProPublica的多次合作。
Mozilla媒体研究员项目资助关于如何应对健康互联网面临的新兴威胁和挑战的新思路。相关项目旨在解决两极分化、大规模监控和虚假信息问题。
奈特基金会(侧重新闻业)资助包括AI伦理倡议在内的项目,以支持数字时代的自由表达和新闻业的卓越发展。他们支持了许多与应对虚假信息相关的项目。
Eyebeam驻地项目(面向艺术家)为那些通过艺术与技术和社会互动创作作品的人提供研究员机会。此前项目包括开源教育初创公司littleBits(2009年)和首次女权维基百科编辑松(2013年)。
阿斯彭技术政策中心研究员项目是一个旨在教授技术专家政策制定过程的新项目。在此过程中,每位研究员将至少产出一项实际的政策成果——例如,模拟立法、政策制定者工具包、白皮书、评论文章或应用程序。
创建你自己的
如果你想要的东西在这个世界上尚不存在,你可能需要创建自己的团体、组织、非营利机构或初创公司。计算机视觉研究员Timnit Gebru就是一个很好的榜样。Gebru博士描述了她作为一名黑人女性参加2016年NIPS(一个主要的AI会议)的经历:“我去参加NIPS会议,有人说估计有8500人。我数了数,只有六个黑人。我简直要崩溃了。我只能这样形容我的感受。我看到这个领域正在呈指数级增长,正在进入主流;它影响着社会的每一个部分。”Gebru博士接着创立了Black in AI,这是一个庞大而活跃的黑人AI研究人员网络,这促成了新的研究合作,成员获得了会议和演讲邀请,甚至促使Google AI决定在加纳阿克拉开设一个研究中心。
相关的fast.ai链接
在fast.ai,我们经常撰写和讨论伦理问题,并在我们的深度学习课程中包含这个主题。以下是一些你可能感兴趣的帖子
- 《哈佛商业评论》在算法和偏见问题上的错误
- 当数据科学动摇民主并助长种族灭绝
- 关于Facebook与伦理,你需要知道什么
- AI领域的多元化危机,2017年版
- AI领域的多元化危机,以及fast.ai多元化奖学金(2016年)
以下是我们关于此主题的一些讲座
- 分析与预防机器学习中的无意识偏见(QCon.ai主题演讲)
- 词嵌入、机器学习中的偏见、你为什么不喜欢数学以及为什么AI需要你(关于Word2Vec等词嵌入中偏见的研讨会)
- fast.ai 第13课:伦理与图像增强
- 关于AI伦理与偏见的一些健康原则(PyBay主题演讲)
技术的伦理影响是一个巨大且相关的领域,还有很多工作要做。