人工智能的道德水平,究竟如何才能让公众放心
2019/5/29 10:31:26

涉及人工智能应用的法律目前还很少,这使得很多组织面临各方面的压力,而为了让公众放心,人工智能应用必须是合乎道德和公平的。
 
随着人工智能的应用越来越普遍,越来越多的IT领导者开始关注人工智能的道德含义。事实上,由SnapLogic公司赞助,由Vanson Bourne公司进行的2019年调查报告发现,在接受调查的1000名美国和英国IT决策者中, 94%的受访者认为人们应该更加关注人工智能开发中的企业责任和道德规范。
 
人们为此感到担忧是有理由的。一些著名的科技公司已经卷入相关丑闻,因为他们创建的人工智能系统没有按预期行事。例如,在2015年,很多用户抱怨谷歌公司的图像识别软件将黑人标记为“大猩猩”,虽然这家科技巨头承诺要解决这个问题,但在三年之后,谷歌公司提供的唯一解决方案就是取消人工智能识别大猩猩的能力。而微软公司的基于人工智能的Twitterbot-tay上在使用了几个小时后,就变成了种族主义者,这让微软公司不得不取消了这个业务。
 
此外据悉,旧金山日前成为美国第一个禁止市场机构使用面部识别软件的主要城市,其部分原因是该技术存在潜在的偏见。几个规模较小的城市已经通过或正在考虑类似的禁令。
 
虽然有关人工智能失误的报道屡见不鲜,但许多人担心,在没有公众知识的情况下,更普遍、更阴险的人工智能犯罪可能发生在幕后。客户可能永远不会知道他们是否因为道德上可疑的人工智能算法而被拒绝贷款或面临欺诈嫌疑。
 
纽约大学的AI Now研究所和美国南部浸礼会派这样的组织都在呼吁开发人工智能的公司让其技术变得更加透明,并同意遵守相应的道德原则。作为回应,包括谷歌公司和微软公司在内的一些企业已经发布了有关人工智能使用的内部指南。
 
然而,许多人认为这还远远不够。相反,他们希望政府机构参与并颁布法规。在Vanson Bourne公司的研究中,87%的商业IT领导者表示应该对人工智能开发进行监管。
 
IT领导者具有这种愿望的部分原因是,在缺乏相关法律的情况下,企业没有办法知道他们是否做了足够的工作来确保其开发的人工智能是合乎道德的。监管法律可能使他们有能力向客户保证人工智能的应用,因为可以表示他们遵守了所有相关法律。如果没有这些法律,获得和保持客户信任可能会更加困难。
 
但即使没有监管法律,企业也可以而且应该采取措施确保他们使用人工智能是道德的。以下提供了企业可以改善其在人工智能方面的道德立场采取的9项措施:
 
1.遵守法规
 
组织至少需要确保其人工智能应用程序符合数据隐私法规。大多数人工智能软件(尤其是机器学习)都依赖于大量的数据来进行操作,企业有责任确保他们对这些数据的处理符合相关法律。在美国,组织可能需要遵守健康保险便携性和责任法案(HIPAA)、儿童在线隐私保护法案(COPPA)或其他联邦或州法律。
 
如果组织在欧洲拥有客户或员工,他们还必须遵守欧盟的通用数据保护法规(GDPR)。除其他事项外,这项全面的立法要求组织尽可能以最短的时间存储数据,并为个人提供查看和删除其个人数据的方法。就人工智能而言,最重要的是,GDPR法规还指出,“个人不应仅仅依据自动处理(例如算法)做出决定,而且具有法律约束力或对其产生重大影响。”
 
2. 遵守数据科学最佳实践
 
除了遵守政府部门的规定外,组织还应该提供数据科学最佳实践。Forrester公司在其名为“人工智能的伦理:如何避免有害的偏见和歧视” 报告中建议,“为了防止模型中的算法偏见,组织需要坚持数据挖掘的基本原则,确保组织培训数据代表其计划使用模型的人群。”
 
还有一些人建议,数据科学家需要反复测试和验证他们的模型,并保持跟踪数据沿袭的方法。虽然很少有企业高管了解机器学习的复杂性,但他们有义务确

下一页
返回列表
返回首页
©2024 深度学习世界--关注深度学习应用,提供深度学习资料下载和技术交流 电脑版
Powered by iwms