|
马上注册登陆,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?用户注册
x
本周,美国白宫发表了一篇有关人工智能的报告──这份报告是今年五月、七月分别于西雅图,匹兹堡,华盛顿和纽约举行的四次研讨会的成果。
在这些形成报告的活动中,来自世界各地不同行业的思想家汇聚到一起,讨论人工智能将怎样改变我们的生活;许多发布会展示了使用机器学习和其他人工智能技术解决各种生活中复杂问题的前景。这些技术包括了识别皮肤的变化预警早期癌症的风险、减少数据中心的能源消耗等。
这些研讨会着重提出了关于目前人工智能研究的盲点。目前自动系统已经被部署在大多数重要的社会机构中,从医院到法庭。但还未出现一个人们普遍认同的方式来评估这些应用对于人类的持续影响。
《自然》评白宫报告:人工智能对人类有何影响还是研究盲点
芝加哥警察使用算法系统来预测哪些人在枪击案中存在最大嫌疑,但这种方式被证明效率很低。
近年来,人工智能的技术有了长足的进步。在这样的发展中,各学科研究人员和设计者需要建立一种所谓人工智能的社会制度分析。他们需要评价技术对于社会,文化和政治环境的影响。
社会制度的分析可以探究例如:AiCure──一种提醒病人按时用药,同时传输数据给医生的应用──是如何改变医患关系的。这样的研究同时也可以探索使用历史记录预测犯罪发生的方式,是否会导致边缘化社区警力使用过度。或者,它可以研究为什么高级投资者有权使用人力和算法来做出投资决策,而低收入的贷款者还在纳闷为什么他们的贷款申请被不断拒绝。
奇点问题
“人们担心计算机会变得过于聪明,最终控制这个世界,但是真正的问题是它们仍然不够聪明,却已经控制了整个世界。”这是计算机科学家 Pedro Domingos 在他 2015 年的著作“The Master Algorithm”中的总结语。尽管很多研究者拒绝接受“技术奇点”的概念,认为这一领域还有待发展,但他们仍然支持将未经受检验的人工智能系统直接引入社会框架。
由于人工智能研究者的热情,一些智能系统已经被使用在了医生的指导诊断中。它们被应用在律师事务所,向委托人估算打赢官司的成功率,告诉金融机构应该接受哪些借贷申请,同时也告诉雇主应该雇佣谁。
分析师期待人工智能系统不断进入这些领域。目前市场分析者将人工智能应用估值为 10 亿美元级别,IBM 的首席执行官 Ginni Rometty 曾说她预计人工智能系统在未来十年中存在 20000 亿美元的机会。当然,未来难以预测,部分原因是没有形成关于“什么是人工智能”的共识。
《自然》评白宫报告:人工智能对人类有何影响还是研究盲点
在未来,人工智能在进行预测和做出决定方面将不会弱于人工操作的系统。但目前,工程师们还在优化人工智能,使得它们能够发现和消除人类中存在的偏见。研究表明在目前一些环境中,人工智能的缺点正在不成比例地增加已受种族,性别,社会经济背景影响的弱势人群的压力。
在 2013 年的一份报告中,谷歌的研究者发现通常被用于黑人的名字相比“白人名字”有更高(25%)的几率被标记以投放犯罪记录搜索的广告。在 ProPublica 在 2016 年 5 月的另一项有关种族的研究中,他们发现用于判断再次犯罪危险的专用算法错误地把黑人的危险性估计为白人的两倍。
三个工具
如何能够避免这样的情况?目前,有三种主要模型可以回答有关人工智能对于社会和伦理影响的问题:服从,"设计值"和思维实验。所有三种模型都很有价值,它们不能单独使用,而且仅仅这三个工具也不够。
部署和服从。通常,公司在运作过程中会以遵守行业标准和法律义务为准则,这可以减少政府,媒体和其他监督机构的调查。这种方式在短期内有效,以谷歌为例,他们在 2015 年系统将一对非裔夫妇贴上黑猩猩标签的事件后改进了图像识别算法。公司被建议在人工智能系统中添加"红色按钮",用以在系统失控后有能力作出反应。
同样的,Facebook 在用户关于普利策将照片被系统删除的抗议后添加了豁免规则,让儿童裸体的照片不再被屏蔽,那是一张越战中一名女孩在凝固汽油弹袭击中哭喊逃亡的著名照片。在上个月,很多人工智能的领导者,包括微软,亚马逊和 IBM,形成了合作关系来促进公众理解,开发共同标准。所以,「部署和服从」方式可以临时做出改变,如果行业准则缺乏独立性,没有得到充分地讨论,它可能会被认为是不适当的。新的人工智能合作体系邀请了伦理学家和公民社会组织加入。但目前仍有顾虑存在,科技公司仍可以完全自由地公开测试他们的人工智能系统,在此之前并不用进行中期甚至早期的持续性研究。
设计中的价值观。在包括 Batya Friedman,Helen Nissenbaum 等早期设计者提出技术的伦理之后,研究者和公司以此为基础,不断发展自己的敏感值设计或进行「负责任地创新」来保证可能的利益相关者和他们的利益。目标人群或其他的技术被用来建立人们关于个人隐私,环境等议题的广泛观点。关于潜在用户的价值观被代入了技术产品的设计中,不论是手机应用还是自动驾驶汽车。在这种情况下,人工智能系统的开发者需要更加遵循这些准则。
然而,这些工具总是在建立系统的假设上工作。机器根本不能告诉设计者,政策制定者和整个社会系统会被如何建立,也不会告诉人们它所遵循的准则过于老旧或不可靠,不能被医院,法庭这样的重要基础设施采用。
《自然》评白宫报告:人工智能对人类有何影响还是研究盲点
在预测肺炎时,一位病人被人工智能系统错误的评定为低风险。
思维实验。过去几年中,假想的情形已经主导了围绕人工智能的社会影响的公众议题。
人类将会创造出将最终统治我们或毁灭我们的高智能系统的可能性已经得到了非常广泛的讨论。另外,来自 1967 年的一个相关的思维实验——电车难题(The Trolley Problem)——已经焕发出了新的生机。这种情形引发了关于责任和罪责的问题。在电车难题中,一个人要么让奔驰中的电车碾过有五个人正在上面施工的轨道,要么需要调整方向让电车驶向另一个只会给一个人带来危险的轨道。许多评论者将这个假想的情形应用到了自动驾驶汽车上——他们认为自动驾驶汽车将不得不做出事关道德伦理的自动决策。
然而和机器人末日一样,自动驾驶汽车权衡“杀人决策” |
|