简历阅读- - -我们需要从人工智能中拯救无知

关闭

您已经阅读了2篇免费月刊文章中的1篇。学习更多的知识。

关闭

我们需要从人工智能中拯救无知

在一个无所不知的算法时代,我们怎么选择不去知道呢?

柏林墙倒塌后,东德公民有机会阅读史塔西保存的文件,史塔西是令人恐惧的

A.柏林墙倒塌后,东德公民有机会阅读斯塔西(Stasi)保存的档案,斯塔西是共产主义时期备受恐惧的秘密警察局。到目前为止,估计只有10%的人抓住了这个机会。

2007年,詹姆斯·沃森,DNA结构的共同发现者,问他无法给出任何关于他的舆传基因,其中一个等位基因是阿尔茨海默病的已知风险因素。

大多数人告诉民意调查人员,如果可以选择,他们宁愿不知道自己的死亡日期,甚至不愿知道未来幸福事件的日期。

这些都是故意无知的例子。苏格拉底可能认为,未经审视的人生不值得活下去,霍布斯可能认为,好奇心是人类最主要的激情,但我们许多最古老的故事实际上描述了知道太多的危险。从亚当、夏娃和知识之树到普罗米修斯窃取火的秘密,他们告诉我们,现实生活中的决定需要在选择知道和选择不知道之间取得微妙的平衡。

移动得慢一点吗?:硅谷文化崇尚快速实验,但这可能不是我们想要的个人数据。 弗雷德里克·罗格朗 - COMEO / Shutterstock.com

但是,如果一个技术沿着不可预测的转移这种平衡,复杂化,我们如何做出时保持无知的决定来的?这种技术是在这里:这就是所谓的人工智能。

AI可以找到使用相对较少的数据模式,并进行推断。只有Facebook的喜欢极少数是必要来预测你的个性,种族和性别等。另一台计算机算法声称,它可以用71%的精确度同性和异性恋男性与81%的精度,和同性和异性男女之间区分,仅仅基于他们的照片。1.一种名为COMPAS的算法可以从青少年逮捕、家庭犯罪记录、教育、社会孤立和休闲活动等数据预测犯罪再犯,准确率达65%。2.

知识有时会破坏判断力,作为回应,我们常常选择故意保持无知。

在每一种情况下,结论的性质都可能与所用数据的性质有惊人的不同(即使某些结果的有效性仍在争论中)。这使得我们很难控制我们所知道的。此外,几乎没有任何法规可以帮助我们保持无知:没有受保护的“不知情权”

这就创造了一种氛围,用Facebook的老格言来说,就是我们倾向于“快速行动,打破常规”。但当涉及到我们私生活的细节时,我们真的想要破坏这些东西吗?


G几十年来,政府和立法者都知道,有时潘多拉的盒子最好是关闭的。至少从20世纪90年代开始,就有法律明文规定要保护个人的知情权。例如,1997年《欧洲人权和生物医学公约》规定,"人人有权了解收集到的有关其健康的任何信息。但是,个人希望不获此通知的,应予遵守。”同样,1995年世界医学协会的《病人权利宣言》指出,"除非为保护他人的生命而需要,病人有权不就其明确请求告知[医疗数据]。

然而,为人工智能制定“无视权利”的法律则是另一回事。尽管医疗数据受到严格监管,但人工智能使用的数据往往掌握在以不受监管著称的营利性科技行业手中。人工智能处理的数据类型也要广泛得多,因此任何相应的法律都需要对“无知权”的含义有更广泛的理解。对故意无知心理学的研究将有助于为人工智能设计无知权法律。但是,令人惊讶的是,这个话题长期以来一直被当作严谨的科学探究的话题而被忽视,也许是因为隐含的假设,即故意回避信息是不理性的。

不过,最近,心理学家拉尔夫·赫特维格(Ralph Hertwig)和法律学者克里斯托弗·恩格尔(Christoph Engel)发表了一篇关于故意无知动机的广泛分类。他们特别指出了两组动机,它们与面对人工智能时的无知需求有特别的相关性。

第一组动机围绕着公正和公平。简单地说,知识有时会败坏判断,我们经常选择故意保持无知作为回应。例如,学术论文的同行评审通常是匿名的。大多数国家的保险公司在注册前都不允许了解客户的所有健康细节;他们只知道一般的危险因素。这种考虑与人工智能尤其相关,因为人工智能可以产生高度偏见的信息。

第二个相关的动机是情绪调节和遗憾回避。故意无知,赫特维希和恩格尔写,可以帮助人们保持“怀有信念,”避免“心理不适,恐惧和认知失调”。3.故意无知的盛行率很高。约90%的受访德国人希望避免因“预见到死亡、离婚等负面事件”而产生的负面情绪。40%到70%的人也不想知道积极的事情,以帮助保持“惊喜和悬念的积极感觉”,比如不知道未出生的孩子的性别。4.

我们泄露数据的时间太长了,以至于我们已经忘记了这是我们自己的数据。

这些动机可以帮助我们理解在面对人工智能时保护无知的必要性。例如,人工智能“同志雷达”算法的潜在效益似乎接近于零,但在公平性和公平性方面,潜在成本巨大。作为《经济学人》所说的那样,“在世界上是同性恋是社会不能接受的,或非法的部分,这样的算法可能对安全构成严重威胁。”同样,在NtechLab目前正在开发的种族探测器的提议好处似乎比较苍白对公正,公平的负面影响。使用该COMPAS再犯预测软件具有比人,但是,作为Dressel和法里德写更高的精度,是“精确并不像我们所想要的,尤其是从被告,其未来在于平衡点。”2.预测个人预期寿命的算法,比如Aspire Health正在开发的那些算法,不一定会让情绪管理变得更容易。

这些例子说明了识别个人无知动机的效用,并展示了知识和无知的问题是多么复杂,尤其是在涉及人工智能的情况下。对于集体的无知何时是有益的,何时是合乎道德的,这个问题没有现成的答案。理想的方法是单独考虑每个案例,进行风险-收益分析。理想情况下,考虑到辩论的复杂性及其后果的重要性,这种分析应该是公开的,包括不同的利益相关者和专家的意见,并考虑所有可能的未来结果,包括最坏的情况。

这是一个很大的问题——事实上,在大多数情况下这可能是不可行的。那么我们如何处理需要精细着色的东西呢?


O一种方法是控制和限制我们允许机器从它们已经收集的数据中做出的推断的种类。例如,我们可以“禁止”司法算法使用种族作为预测变量,或者在对潜在求职者的预测分析中排除性别。但这种方法也存在问题。

首先,限制大公司使用的信息是昂贵的和技术上的困难。这将要求这些公司开源他们的算法,以及大型政府机构不断进行审计。另外一次大的数据集已收集,有很多方法来推断“禁知识”的迂回方式。假设使用性别信息来预测学术成功被宣布为非法。这将是直接使用变量“类型的车资的”和“最喜爱的音乐流派”作为性别的代理,进行第二次推理和休息后所有性别的代理的预测。关于性别的推断甚至有可能意外地建成一个算法,尽管公司的最好的意图。这些二阶推论使算法的审核更加艰巨。包含在分析的多个变量的可能性就越大二阶推论将发生。

保护知情权的更激进和可能更有效的方法是首先防止收集数据。例如,在2017年的一项开创性举措中,德国通过了一项立法,禁止自动驾驶汽车根据种族、年龄和性别识别街上的人。这意味着汽车将永远无法告知其驾驶决策,尤其是当事故不可避免时,使用这些类别的数据时,它需要做出的决策。

司机埃德:该网站moralmachine.mit.edu在机器将很快做出决定的情况下,测试人类的道德直觉,使用我们自己选择的数据类型。 麻省理工学院

按照这种思路,欧盟新的《通用数据保护条例》(GDPR)于2018年5月生效,该条例规定,公司只允许收集和存储提供特定规定服务所需的最低数量的用户数据,并获得客户对其数据使用方式的同意。对数据捕获的这种限制也可以防止二阶推断。GDPR方法的一个重要限制是,公司可以为自己设定非常广泛的目标。例如,现在关闭的剑桥分析公司的明确目标是评估你的个性,因此从技术上讲,它收集Facebook数据的争议符合GPDR的指导方针。类似地,GPDR关注数据与给定服务之间的一致性并没有排除我们认为道德上有问题的数据类别,也没有完全阻止公司从数据代理购买排除的数据,只要用户同意,并且许多人同意共享他们的数据,即使激励相对较弱。研究人员发现,一些麻省理工学院的学生会分享他们朋友的联系方式来吃一块比萨饼。5.很显然,需要进一步的限制。但究竟有多少?

美国活动家和程序员理查德·斯托曼(Richard Stallman)给出了这样的答案:“使用数据伤害人们的方式有很多,唯一安全的数据库是从未被收集的数据库。”但是,过于严格地限制数据收集可能会阻碍进展,损害我们从人工智能获得的好处。

谁应该决定这些权衡?我们都应该自己做。


大多数情况下,我们实际上谈论的是你我拥有的数据。我们在没有考虑后果的情况下把它送给了闪亮的应用程序,这是很粗心的。事实上,我们泄露数据的时间太长了,以至于我们一开始就忘记了它是我们的。把它拿回来让我们可以自己决定是否有我们想要或不想知道的东西。将数据恢复给它的合法所有者——我们——巧妙地解决了我们讨论过的许多艰难挑战。它避免了对数据制定普遍的、有先见之明的指导方针的需要。相反,数以百万计的人将根据自己对是非的判断来指导自己的数据使用。我们都可以实时地对公司对数据的使用做出反应,根据对数据的处理方式对公司进行惩罚或奖励。

计算机科学哲学家杰伦·拉尼尔(Jaron Lanier)提出了另一个经济观点,即将数据放回人们手中。他认为,通过将私人数据出售给大公司,我们都应该能够从中获利。这种方法有两个问题。首先,它混淆了数据使用和所有权的道德规范。愿意泄露数据免费是一个很好的检验数据将被用来回答的问题的道德完整性的试金石。少数群体中有多少人会为了创建一个像“同志雷达”这样的面部识别应用程序而免费提供他们的数据?又有多少人愿意接受报酬?另一方面,大多数人会乐意将他们的数据贡献给寻找癌症的治疗方法。其次,给个人数据赋予(高)经济价值可能会迫使人们分享他们的数据,使数据隐私成为富人的特权。

这并不是说单独的个人行动就足够了。社会机构也需要采取集体行动。即使只有一小部分人分享他们的敏感数据,其结果也可能是大多数人反对的高预测准确性。并非所有人都意识到这一点。为了防止不必要的后果,我们需要更多的法律和公共辩论。

《经济学人》撰文指出,世界上最宝贵的资源不再是石油,它的数据。但数据是从石油非常不同。数据是无限资源,它是由个人所拥有,并且它没有任何交易的经济价值最好的交换。以利润出油杀死了石油市场。作为第一步,在获利回吐了数据的提供,我们需要创建和维护才能生存AI的到来道德标准,铺平道路,为管理集体无知的方式的空间。换句话说,随着数据成为现代世界的最有用的商品之一,它也需要成为最便宜的之一。


Christina Leuker是马克斯·普朗克人类发展研究所的博士前研究员。

沃特·范登博斯是马克斯·普朗克人类发展研究所的研究科学家。


参考文献

1.在从面部图像中检测性取向方面,深度神经网络比人类更准确。人格与社会心理学杂志114,246-257(2018)。

2.Dressel,J.&Farid,H.《预测累犯的准确性、公平性和限度》。科学的进步4.eaao5580(2018)。

3.Hertwig, R. & Engel, C. Homo ignorans:故意选择不知道。心理科学视角11, 359 - 372(2016)。

4.卡桑德拉的遗憾:不想知道的心理。心理学评论124, 179 - 196(2017)。

5.Athey,S.Catalini,C.,和Tucker,C.E.《数字隐私悖论:小额资金、小额成本、闲聊》。斯坦福大学商学院研究生院论文第17-14号(2018年)。


更多的阅读

斯托尔曼,R。一个激进的建议,以保持您的个人资料的安全。《卫报》(2018)。

员工的作家。世界上最有价值的资源不再是石油,而是数据。《经济学人》(2017)。


主要拼贴照片来源:奥利弗·伯斯顿/盖蒂图片社;Pixabay

参加讨论