具体分析人工智能风险(人工智能分类法)

人工智能与社会
作者

Rachel Thomas

发布日期

2021年8月16日

“人工智能”一词是一个宽泛的统称,指应用于各种任务的多种技术。这种宽泛性可能导致混淆。例如,成功利用人工智能识别肺部X光片上的肿瘤,并不能说明人工智能是否能准确预测谁会再次犯罪或哪些员工会成功,或者这些后一类任务是否适合使用人工智能。误导性的营销炒作常常模糊了不同类型任务之间的界限,并暗示在狭窄研究问题上的突破比实际情况具有更广泛的适用性。此外,不同类别的人工智能任务所带来的风险性质各不相同,理解这些区别至关重要。

造成混淆的一个原因是,在小说和大众想象中,人工智能通常指计算机获得人类意识:一种广泛的通用智能。人们可能会想象一个超级智能机器人,它知识渊博,能够执行许多任务。而现实情况是,目前人工智能的进展都是狭窄的:一个计算机程序只能很好地完成一项或一类任务。例如,一个软件程序分析乳腺X光片以识别可能的乳腺癌,或者一个完全不同的软件程序为学生写的文章评分(尽管会被使用复杂词汇的胡言乱语所愚弄)。这些是独立的程序,与科幻电影和书籍中描绘的类人人工智能有着根本区别。

可以理解,公众可能常常认为,既然公司和政府正在将人工智能用于预测性警务、确定医疗福利、筛选简历和分析视频面试等高风险任务,那一定是出于人工智能的卓越性能。然而,可悲的现实是,人工智能往往是作为一种削减成本的措施而被实施:计算机比雇佣人类便宜,这可能导致决策者忽视这种转变带来的危害,包括偏见、错误以及未能验证准确性声明。

在题为“如何识破人工智能的伪科学”的演讲中,Arvind Narayanan教授创建了一个有用的人工智能当前普遍应用的三个任务类别的分类法

上述3个类别并非涵盖了人工智能的所有用途,当然也有跨越这些类别的创新。然而,这个分类法是一个有用的启发式方法,有助于考虑准确性的差异以及我们所面临风险性质的差异。对于感知任务,一些最大的伦理担忧与人工智能的准确性有关(例如,国家准确监控抗议者对我们的公民权利有着令人不寒而栗的影响),但相比之下,对于预测社会结果,许多产品完全是垃圾,这以另一种方式有害。

第一个领域是感知,包括语音转文本和图像识别,这是研究人员正在取得真正令人印象深刻、快速进展的领域。然而,即使在这个领域,这并不意味着技术总是随时可用,或者没有伦理问题。例如,由于训练集缺乏代表性,人脸识别在深肤色女性上的错误率通常要高得多。即使通过提高准确性消除了这种偏见,警方使用人脸识别技术识别抗议者(这在美国 发生过很多次)严重威胁了公民权利。此外,计算机算法在受控的学术环境中的表现与在现实世界中部署时的表现可能截然不同。例如,Google Health 开发了一个计算机程序,用于高质量眼部扫描时能以 90% 的准确率识别糖尿病视网膜病变。然而,当它部署在泰国诊所时,许多扫描是在光线条件差的环境下进行的,超过 20% 的扫描因质量低被算法拒绝,给许多不得不请假一天去其他诊所复查的患者带来了极大的不便。

虽然类别2(自动化判断)领域正在取得改进,但技术仍然存在缺陷,并且由于文化和语言使用方式不断演变,这里的可能性存在局限性。广泛使用的文章评分软件奖励“使用复杂词汇的胡言乱语文章”,并且对非裔美国学生存在偏见,给他们的文章评分低于人类专家评分员。该软件能够衡量句子长度、词汇量和拼写,但无法识别创造力或细微之处。LGBTQ YouTube创作者的内容被错误标记为“露骨色情”,并被取消营利,损害了他们的生计。正如Ali Alkhatib所写:“算法总是落后于曲线,基于昨天的数据执行今天的任务……这个案例(YouTube取消LGBTQ创作者营利)凸显了解决这类问题的一个常见方案的不足之处,即更多的训练数据可以消除这种性质的错误:文化总是在变化。”这是这个类别的根本局限性:语言总是在发展,新的诽谤和仇恨言论形式不断出现,就像新的创造性表达形式一样。

Narayanan将第三类——尝试预测社会结果——标记为“从根本上来说是可疑的”。人工智能无法预测未来,给一个人的潜力贴标签令人深感担忧。通常,这些方法并不比简单的线性回归更准确。社会科学家花费15年时间辛勤收集了一个包含12,942个变量的丰富家庭纵向数据集。当160个团队创建机器学习模型来预测数据集中哪些儿童会出现不良结果时,最准确的提交结果仅比使用4个变量的简单基准模型略好,并且许多提交结果比简单基准模型表现更差。在美国,刑事司法系统中有一个包含137个输入的黑箱软件程序,用于预测谁可能再次被捕,但它并不比仅使用2个变量的线性分类器更准确。不仅不清楚这个类别是否存在有意义的人工智能进展,更重要的是,此类努力的根本前提引发了关键问题:我们是否应该试图使用算法来预测某人的未来潜力?Narayanan与Matt Salganik一起,在关于预测的局限性的课程中进一步发展了这些想法(请查看课程预读材料,它非常棒)。

Narayanan的分类法是一个有益的提醒,即在一个类别中的进展不一定对另一个类别意义重大,并且他提出了一个关键的见解:人工智能的不同应用带来了不同的根本性风险。过于笼统的人工智能一词、公司推销产品的误导性炒作以及令人困惑的媒体报道常常模糊了不同类型任务之间的界限,并暗示狭窄问题上的突破比实际更广泛适用。了解可用的技术类型以及它们带来的独特风险,对于解决和防止有害的滥用至关重要。

阅读Narayanan的如何识破人工智能的伪科学的幻灯片和笔记,了解更多详情。

本文最初发表于USF应用数据伦理中心(CADE)博客