对 OpenAI、强化学习和杀人机器人的思考

AI与社会
作者

Rachel Thomas

发布日期

2017年7月28日

“那么 fast.ai 与 OpenAI 有何不同?” 我被问过这个问题很多次,从表面上看,两者有几个相似之处:都是非营利组织,都重视开放性,并且都被描述为普及人工智能。一个重要的区别是,fast.ai 没有获得埃隆·马斯克提供的10亿美元资金,用于组建一支由最著名学校的博士组成的精英研究团队,并在最顶级的期刊上发表论文。然而,OpenAI 却获得了。

事实证明,我们在几乎所有其他方面也不同:包括我们的目标、价值观、动机和目标受众。

通用人工智能

AI 这个术语有很多混淆之处。对一些人来说,AI 意味着构建一个类似于人类大脑的超级智能计算机(这通常被称为通用人工智能AGI)。这些人通常对哲学问题感兴趣,例如成为人类意味着什么?或者智能的本质是什么?他们可能会有这样的担忧,例如超级智能机器会摧毁人类吗?一篇《纽约客》文章描述称 OpenAI 的目标是确保 AI 不会消灭人类,其网页上写着其使命是创造通用人工智能。埃隆·马斯克表达了对 DeepMind(被 Google 以5亿美元收购)和邪恶 AI 发展的担忧,他说:“如果他们开发的 A.I. 出错,我们就有永远拥有一个不朽且超级强大的独裁者的风险。它的第一步行动就是屠杀所有竞争性的 A.I. 研究人员,在我看来这有点性格缺陷。”

攻克 AGI 是一个非常长期的目标。许多人认为最相关的研究领域是强化学习:研究如何教会计算机击败 Atari 游戏。正式地说,强化学习研究的是需要一系列行动才能产生奖励/损失,并且不知道每个行动对结果贡献了多少的问题。世界上数百位最聪明的头脑,拥有最顶级的资质,正在研究这个 Atari 问题。他们的研究对机器人学有应用,尽管其中很多内容是相当理论化的。OpenAI 主要的动力是在该领域的顶级学术期刊上发表论文,你需要拥有类似的精英背景才能理解他们的论文。

实用人工智能

对另一些人来说,AI 指的是在执行应用型任务时表现出一定智能水平的算法,例如能够做到以下几点的算法:

目前,在这些能够非常好地完成应用型任务的算法领域,正发生着许多快速的进展。这些算法(在其设计应用上的出色表现之外)不会被误认为是人类。这听起来可能没有天哪!超级智能类人机器那么令人兴奋,但这些算法今天对世界产生了更大的影响:它们比人类放射科医生在诊断癌症方面更准确,在理解中文和英文语音方面比人类更准确,应用于自动驾驶汽车,改善儿科 ICU 患者的治疗,致力于终止濒危雨林中的非法伐木,赋予视障人士更多独立性,减少印度农民自杀,等等(注意:尽管它们属于同一类别,但针对这些应用中的每一个都训练和调整了特定的算法)。

上面列出的这些能力是变革性的:医学上的改进将有助于弥补全球医生短缺,即使在医生充足的国家也能改善治疗结果,并挽救数百万人的生命。自动驾驶汽车更安全,并将大幅减少交通事故死亡、交通拥堵和污染。

然而,这些应用型算法也已经产生了一些可怕的负面影响:随着更多工作被自动化,失业率增加,贫富差距扩大(因为使用这些算法创建的高利润公司雇用的工人相对较少),固化现有偏见(例如,Google 相册在自动照片标记中将黑人标记为“大猩猩”),以及机器人逼真的假视频进一步影响政治的可能性。

在 fast.ai,我们不致力于 AGI,而是专注于如何让更多来自不同背景的人能够创建和使用神经网络算法。我们有学生致力于阻止非法砍伐森林,为巴基斯坦乌尔都语创建更多资源,帮助印度农民证明他们拥有多少土地以符合农作物保险资格,研究用于监测帕金森病的穿戴设备,等等。这些是 Jeremy 和我知之甚少(甚至一无所知)的问题,这说明了使这项技术尽可能易于获取的重要性。拥有不同背景、身处不同地点、怀抱不同热情的人,将会意识到他们想要解决的全新问题集合。

我很难理解马斯克对于遥远未来中邪恶超级智能 AGI 杀人机器人的痴迷。我支持各个层面的研究资助,并且不反对大部分理论研究,但是,将10亿美元投入强化学习,却没有任何类似的投资来解决大规模失业和贫富差距(这两者都有充分的证据表明会导致政治不稳定)、现有性别和种族偏见如何被编码进我们的算法中,以及如何最好地将这项技术交给世界各地致力于医学和农业等高影响领域的人们使用,这真的是资源的最佳利用方式吗?