深度学习潜力巨大,但目前使用这项技术的人绝大多数是白人和男性。我们已经看到,当由如此同质化的群体构建时,社会的种族和性别偏见正被编码到使用人工智能的软件中。此外,人们无法解决他们不知道的问题,而拥有更多元化的从业者,将能解决更多重要的社会问题。
深度学习具有巨大潜力
fast.ai 的学生和老师正在利用深度学习来诊断癌症、阻止濒危雨林的滥伐、为印度的农民提供更好的作物保险(否则他们不得不向恶棍借高利贷,导致自杀率居高不下)、帮助巴基斯坦的乌尔都语使用者、为帕金森病患者开发可穿戴设备等等。深度学习为我们提供了一种方法来填补全球医生短缺的局面,提供更准确的医疗诊断,并可能挽救数百万生命。它可以提高能源效率、增加农业产量、减少农药使用等等。
我们希望将深度学习技术普及到尽可能多的、来自不同背景的人手中。不同背景的人关注的问题也不同。传统方法是先找一个人工智能专家,然后给他一个问题去解决;而在 fast.ai,我们希望找到对他们正在解决的问题既了解又充满热情的人,我们会教他们解决这些问题所需的深度学习知识。
深度学习可能被滥用
深度学习并不比回归等更简单的模型“更偏见”;然而,深度学习惊人的有效性表明它将在更多应用中使用。作为一个社会,我们冒着将现有的性别和种族偏见编码进决定医疗保健、就业决策、刑事司法判决等的算法中的风险。使用简单模型时,这种情况已经发生,但深度学习的广泛采用将迅速加速这一趋势。接下来的5到10年是一个特别关键的时期。我们必须让更多的女性和有色人种参与构建这项技术,以便识别、预防或解决这些偏见。
今年早些时候,电子眩晕枪制造商 Taser(现更名为 Axon)收购了两家人工智能公司。Taser/Axon 拥有美国警用执法记录仪市场80%的份额,将这些执法记录仪的视频片段保存在私有数据库中,现在正在宣传他们正在开发用于“预测性警务”的技术。作为一家私营公司,他们不受与警察部门相同的公共记录法或监督的约束。考虑到警务中的种族偏见已被充分记录并被证明会产生负面反馈循环,这令人恐惧。他们的数据集或算法中可能存在什么样的偏见?
谷歌流行的 Word2Vec 语言库(在我们的课程第5课和今年夏天我举行的一个研讨会中都有讲解)学会了有意义的类比,例如男人对应国王,女人对应女王。然而,它也产生了带有性别偏见的类比,例如男人对应计算机程序员,女人对应家庭主妇。这令人担忧,因为 Word2Vec 已成为各种应用中常用的基础模块。这并非谷歌在使用深度学习时首次(甚至不是第二次)出现令人担忧的偏见。2015年,谷歌相册在自动标注照片时将黑人标记为“大猩猩”。谷歌翻译继续提供带有性别偏见的翻译,例如将土耳其语“O bir doktor. O bir hemşire”(原文未指明性别)翻译成“He is a doctor. She is a nurse”(他是一名医生。她是一名护士)。
人工智能的多样性现状
在谷歌人工智能领军人物Jeff Dean表示他对人工智能领域缺乏多样性深感担忧一年后,猜猜谷歌大脑团队的多样性统计数据是怎样的?它是约94%男性,有44名男性,仅有3名女性,且70%以上是白人。OpenAI 的开放性并未延伸到分享多样性统计数据或员工构成,而且从照片来看,OpenAI 团队看起来极其同质化。我猜测它甚至比谷歌大脑的多样性还要差。今年早些时候,《名利场》发表了一篇关于人工智能的文章,文中出现了60位男性,却没有引用一位在人工智能领域工作的女性的话。
谷歌大脑、OpenAI 和媒体不能仅仅将这种多样性缺乏归咎于人才储备不足,因为目前有超过1000名女性活跃在机器学习领域。此外,谷歌有一个培训项目,旨在帮助其他领域的工程师掌握人工智能技能,这可能是增加多样性的好方法。然而,这个项目只对谷歌内部工程师开放,而谷歌的技术员工中只有3%是黑人或拉丁裔(尽管在过去十年中,美国有9万名黑人和拉丁裔学生获得了计算机科学学士学位);因此,这个培训项目对多样性不会产生太大影响。
fast.ai 多样性奖学金
在 fast.ai,我们希望为增加这个强大领域的多样性贡献一份力量。因此,我们将为我们更新的线下《面向程序员的实用深度学习》课程提供多样性奖学金,该课程与旧金山大学数据学院联合开设,将于10月30日起在旧金山市中心每周一晚上授课。唯一的要求是:
- 至少1年编程经验
- 每周至少投入8小时用于课程(包括完成作业的时间)
- 好奇心和努力工作的意愿
- 身份是女性、有色人种、LGBTQ 人士和/或退伍军人
- 每周一晚上6:30-9:00能在旧金山市中心(SOMA区)参加线下课程
你可以在这篇博文中找到更多申请详情。