关闭
思考顾问

生活健康 > 健康保险 > 你的练习

人类如何管理他们的算法霸主

经过 Cathy O'Neil

X
您的文章已成功与您提供的联系人共享。

(彭博观) - 人类逐渐来认识到巨大影响力 人工智能 将对社会。然而,我们需要思考更多,这是如何 坚持责任 对生活的人会改变。

谷歌告诉我们要相信的内容。 Facebook告诉我们什么是新闻。无数其他算法正处于人类控制和判断,以不总是明显或良性的方式。作为Larry Summers最近注意到,单独对工作的影响(从自动驾驶汽车中的很大程度上)可能会大于贸易协定的影响。

那么谁将监控算法,确保他们以人们的最佳利益为例?上周关于FBI对刑事调查使用面部识别技术的国会审理证明了这个问题需要得到多少糟糕的问题。由于守护者报告,联邦调查局正在收集和分析人们的形象,没有他们的知识,并且对技术的可靠性很少了解。原始结果似乎表明它对黑人特别有缺陷,系统也不成比例地瞄准。

(相关的onthinkadodor.国家监管机构眼生加速包销计划)

简而言之,人们在黑暗中掌握了人工智能如何使用人工智能,它实际影响它们的程度以及它可能有缺陷的方式。这是不可接受的。至少,一些基本信息应公开可用于任何被视为足够强大的算法。以下是一些关于最低标准可能需要的想法:

规模。收集其数据,如何以及为什么?这些数据有多可靠?已知的缺陷和遗漏是什么?影响。算法如何处理数据?它的决定结果如何?准确性。该算法多久犯错误 - 通过错误地将人们识别为犯罪分子或未能将其视为罪犯?种族和性别错误是什么?

这些责任对于拥有限制自由的政府实体尤为重要。如果他们的进程是不透明和不负责任的,我们就会冒它将我们的权利赋予缺陷的机器。例如,考虑越来越多地使用“犯罪风险分数”,决定保释,判决和假释。根据所使用的数据和算法,这种分数可以像任何人类法官一样偏见。

但是,透明度只是一个起点。如果黑人系统地获得骚扰刑期,或者如果穷人自动被称为疑似罪犯,它不会告诉我们该怎么办。最多,它将与算法的设计者或国会成员之间开始政治和道德谈话 - 一个将迫使我们重新审视我们最基本的司法和自由的概念。

凯茜奥尼尔是一位曾担任对冲基金分析师和数据科学家教授的数学家。她创立了奥卡萨,算法审计公司,是“数学毁灭武器的作者。

- 读 我们的网站和电子邮件通讯正在发生变化 on ThinkAdvisor.