人工智能必须培养良知:限制可能潜入数据驱动决策的无意识偏见
2019/9/24 17:28:56
在好莱坞的电影中,有很多关于人工智能(AI)在未来世界发生的故事。可以在一定程度上说,这个未来不会很快到来——虽然人工智能具有很多功能和能力,但人类的创造力和知识能力还有待匹配。这意味着做出的重大决策仍然掌握在人类的手中。
在当今世界,人工智能可以选择求职面试的应聘者,并决定谁有资格获得工作职位,并且可以为患者进行诊断。而在这些情况下采用人工智能取代人类,在速度和效率方面取得了长足的进步。
甚至有人认为,人工智能可以在未来几年内取代30%的劳动力。但是,拥有强大的力量也会有巨大的责任。为了获得较佳结果,需要开发可以更公平分享这些好处的人工智能。
事实上,人类可以与新兴技术实现共生发展,虽然这意味着人工智能可以从人类身上得到很好的结果,但它也可能导致很坏的结果,因为人工智能也纳入了一些人们很糟糕的恶习。如果现在不采取措施,无意识的偏见已经是社会很大的挑战之一,这可能会一直持续,甚至成为根深蒂固的结构性偏见。
数据可以告诉人们很多信息,但不会告诉一切。人们不想看到的是可以评判自己的世界,不是关注的能力或潜力,而是留下的数据线索。很明显,要想让人工智能成为一支良好的力量,它需要针对其设定任务和公平性进行优化。
无意识的偏见是一个数据问题
“垃圾输入,垃圾输出”这个短语在软件开发行业中是一个众所周知的格言,并且有着充分的理由。尽管人工智能已经变得如此复杂和强大,但它仍然是为执行特定任务而设计和训练的一系列算法。人工智能依赖于为其发展提供的数据。
它只能分析所拥有的数据,并试图从中获得较佳结果。在行业人士看来,糟糕的决定实际上是从一组糟糕的数据中做出的最佳决策。不过,这并没有降低问题的严重性。
像微软公司的Tay chatter bot或Yandex公司的Alice虚拟助理这样的案例实验很好地展示了当自学习解决方案输入错误数据时会发生什么。在这两种情况下,人们都期望公开、持续的人际互动将有助于解决方案发展出令人信服的个性。不幸的是,与一连串进攻性的接触创造了一种系统,这种人工智能系统学会习惯性地攻击。
然而,当人工智能做出的决定开始影响人们的生活时,其后果可能会严重得多。在未来决策由数据驱动的情况下,人们须确保数据集中的少数群体不会被剥夺应该获得的权利。
例如一种面部识别算法,该算法只使用浅肤色模型的图像进行训练。当人工智能算法遇到肤色较深的用户时,它可能会错误识别,甚至根本无法识别他们。
如果这项人工智能面部识别技术成为招聘或薪酬体系的基础,想象一下会产生什么样的影响。通过这种方式,某些群体可能处于不利地位,会有更糟糕的用户体验,甚至根本无法获得服务。这种歧视可能不是故意的,但其影响同样具有破坏性。
无意识的人工智能偏见从一定程度上来说是一个数据问题。如果没有一个包含多样、全面数据的大型数据库,未来的人工智能就有可能在没有完整背景的情况下自动创造出社会的赢家和输家。因此,组织采购颇大和较广泛的数据集至关重要。
当然,他们还需要确保他们的人工智能解决方案能够有效地使用所有这些数据。这意味着强大的数据管理工具和政策,确保数据被分类、整合、简化,以供人工智能使用。如果企业缺乏完善的基础设施和治理,那么收集和存储这些数据是没有意义的。
数据多样性
解决方案并不像越来越多地收集数据那么简单。仅仅因为企业要从比其他公司拥有更多的数据中提取数据,并不意味着数据集的质量更高,也不会产生更公平的结果。
例如,工程部门的人力资源部门可能有大量的历史数据可供参考,但如果该部门之前一直由男性员工主导,那么女性应聘者可能很难
下一页
返回列表
返回首页
©2025 深度学习世界--关注深度学习应用,提供深度学习资料下载和技术交流 电脑版
Powered by iwms