更新:截止日期已延长至10月17日。在此阅读更多
在 fast.ai,我们希望尽一份力,帮助让深度学习更加包容。为此,我们首先为我们的深度学习证书课程提供一个全额奖学金,该课程将在 USF 数据研究所举行,从10月24日开始,每周一晚上进行。欢迎女性、有色人种和 LGBTQ 人士申请。申请者请在10月12日 10月17日之前,将您的简历发送至 [email protected],并附上一份说明您对多元化奖学金感兴趣的便条,以及一段关于您想如何使用深度学习的简要文字。您可以在此阅读更多关于我们将涵盖的内容以及我们的教学方法的信息。
我们为什么要这样做?人工智能是目前一个令人难以置信的激动人心的领域,几乎每天都有新的突破。我个人能在这个领域工作感到非常幸运,并希望每个人都能接触到如此迷人和富有创造性的工作。此外,人工智能正因其缺乏多元化而错失良机。一项对366家公司的研究发现,族裔多元化的公司财务表现好的可能性要高出35%,而女性较多的团队在集体智力测试中表现更佳。由多元化团队撰写的科学论文获得更多引用,影响因子也更高。
尽管科技领域的多元化危机已经很严重,但在人工智能领域,它甚至更糟,这包括深度学习。由人口中一个非常狭窄且同质化的群体创造出了极其强大的算法。Google Brain 团队的35人中只有3人是女性;斯坦福大学的15位人工智能研究人员中只有1人是女性;2015年,最大的AI会议之一(NIPS)的与会者中只有14%是女性。对招聘广告语言的分析发现,机器学习职位的招聘广告与所有其他类型的软件工程师职位的广告相比,存在明显的男性偏见。
我们已经看到以下这些令人悲伤(但不一定是故意的)的AI偏见反映:
- Google 相册自动将黑人标记为“大猩猩”
- 用于评估刑事累犯风险的软件,它错误地预测黑人被告风险高的可能性是预测白人被告风险低的可能性的两倍。(令人震惊的是,这款软件正在美国各地的法庭中使用)
- 尼康相机在照片中将亚洲人标记为“眨眼”
- 微软臭名昭著的种族主义聊天机器人 Tay
- 谷歌流行的 Word2Vec 语言库创建了性别歧视类比,例如 男性→计算机程序员 :: 女性→家庭主妇,以及 父亲→医生 :: 母亲→护士。
随着机器学习在未来几年中作用的持续增长,有偏见的算法对现实世界造成负面影响的可能性只会增加。
CMU 机器人研究所的研究员(即将成为普林斯顿大学计算机科学教授)Olga Russakovsky 写道,AI 领域陷入了困境,“我们倾向于反复培养同一类型的研究人员——他们背景相似,兴趣相似,小时候读过同样的书,师从相同的思想领袖,最终也做着同样的研究。”
谷歌大脑传奇负责人 Jeff Dean 表示,他不担心人工智能的末日,但他非常担忧人工智能领域缺乏多元化。
数学是一个以性别歧视而闻名的领域,当我们把高等数学变成深度学习入门的不必要障碍时(一篇详细阐述此点的后续文章正在撰写中),我们大大减少了合格的女性人数,因为她们已经被充满敌意和偏见的环境淘汰了。请注意,这归因于美国的文化因素,并且并非所有国家都如此。
如有关于多元化奖学金的任何问题或对本文的评论,请发送电子邮件至 [email protected]。