一种柏林墙的堕落,东德国公民被提供有机会阅读STASI,令人担忧的共青社秘密警察服务。迄今为止,据估计,只有10%只有机会。
2007年,DNA结构的共同发现者詹姆斯·沃森(James Watson)要求不要向他提供任何有关他的DNA结构的信息APOE基因,一种等位基因是阿尔茨海默病的已知风险因素。
大多数人告诉Pollsters认为,考虑到选择,他们更愿意不知道自己的死亡日期 - 甚至是幸福事件的未来日期。
这些都是故意无知的一个例子。苏格拉底可能已经使未经审查的生活不值得生活,霍布斯可能认为,好奇心是人类的主要热情,但我们最古老的故事中的许多故事实际上描述了太多了解的危险。从亚当和夏娃和知识树到普罗米修斯偷窃火灾的秘密,他们教我们,现实生活决策需要在选择知识之间进行微妙的平衡,并选择不选择。
但是,如果一种技术出现了,它不可预测地改变了这种平衡,使我们如何决定何时保持无知变得复杂了呢?这种技术就在这里:它被称为人工智能。
人工智能可以用相对较少的数据找到模式并做出推论。例如,只需在Facebook上点几个赞就可以预测你的个性、种族和性别。另一种计算机算法声称,仅根据照片就能区分同性恋和异性恋男性,准确率为81%,而同性恋和异性恋女性的准确率为71%。1一种名为COMPAS的算法可以从青少年逮捕、家庭犯罪记录、教育、社会孤立和休闲活动等数据预测犯罪再犯,准确率达65%。2
知识有时可以腐败判断,我们经常选择致力于致意地忘记。
在这些情况中的每一个中,结论的性质可以代表令人惊讶的偏离所使用的数据的性质(即使某些结果的有效性仍然辩论)。这使得难以控制我们所知道的。还没有规定,帮助我们保持无知:没有受到保护的“不知道”。
这在Facebook的旧座右铭的话语中创造了一个氛围,我们倾向于“快速地移动和休息。”但是,当涉及我们私人生活的细节时,就会打破我们想要做的事情?
G几十年来,政府和立法者都知道,有时潘多拉的盒子最好是关闭的。至少从20世纪90年代开始,就有法律明文规定要保护个人的知情权。例如,1997年《欧洲人权和生物医学公约》规定,"人人有权了解收集到的有关其健康的任何信息。但是,个人希望不获此通知的,应予遵守。”同样,1995年世界医学协会的《病人权利宣言》指出,"除非为保护他人的生命而需要,病人有权不就其明确请求告知[医疗数据]。
然而,为AI写出令人幻想法律是一个非常不同的事情。虽然医疗数据受到强烈规范,但AI使用的数据往往掌握着臭名昭着的营利性技术部门的手中。AI处理的数据类型也更广泛,因此任何相应的法律需要更广泛的了解对无知手段的权利。蓄意无知的心理学研究将有助于为AI设计令人无知的法律。但令人惊讶的是,这一话题长期被忽视为严格的科学探究的话题,也许是因为隐含的假设,故意避免信息是不合理的。
为什么机器人的大脑需要符号
如今,“人工智能”似乎实际上是每个人的嘴唇,从埃隆麝香到亨利·凯林格。至少十几个国家都安装了主要的AI举措,以及像谷歌和Facebook这样的公司被锁定在一个大规模的战斗中......阅读更多
不过,最近,心理学家拉尔夫·赫特维格(Ralph Hertwig)和法律学者克里斯托弗·恩格尔(Christoph Engel)发表了一篇关于故意无知动机的广泛分类。他们特别指出了两组动机,它们与面对人工智能时的无知需求有特别的相关性。
第一组动机围绕公正性和公平性。简单地说,知识有时会腐败判断,我们经常选择仔细忽视回应。例如,学术论文的同行评审通常是匿名的。在大多数国家的保险公司不得知道在注册之前了解其客户健康的所有细节;他们只知道一般风险因素。这种类型的考虑与AI特别相关,因为AI可以产生高度偏见的信息。
第二个相关动机是情绪调节和后悔回避。赫特维格和恩格尔写道,刻意的无知可以帮助人们保持“珍贵的信念”,避免“精神不适、恐惧和认知失调”。3.故意无知的普遍性很高。大约90%的受访德国人希望避免可能出现的负面情绪可能会出现在“死亡和离婚”和40%的“死亡事件”中可能出现,而40%到70%也不想了解积极的事件,以帮助保持“积极的感受惊喜和悬念“来自例如未知未出生的孩子的性别。4.
我们一直在向我们的数据提供,这么长时间,我们忘记了它首先是我们的。
这些动机可以帮助我们了解在AI面上保护无知的需要。例如,AI“Gaydar”算法似乎具有接近零潜在的益处,但涉及公正性和公平性时的潜在成本很大。作为经济学家换句话说,“在世界上某些地方,同性恋是不被社会接受的,或者是非法的,这样的算法可能会对安全造成严重威胁。”同样,NtechLab目前正在开发的种族检测器的拟议好处与对公正性和公平性的负面影响相比似乎显得微不足道。使用COMPAS的惯犯预测软件比人类的准确性更高,但正如德雷塞尔和法里德所写的那样,“没有我们想要的那么准确,尤其是从一个前途未卜的被告的角度来看。”2预测个人预期寿命的算法,比如Aspire Health正在开发的那些算法,不一定会让情绪管理变得更容易。
这些例子说明了识别无知的单个动机的效用,并显示了知识和无知的复杂问题,特别是当涉及AI时。当集体无知是有益或道德上的问题时,没有现成的答案。理想的方法是单独考虑每种情况,进行风险效益分析。理想情况下,鉴于辩论的复杂性和其后果的重量,这种分析将是公开的,包括不同的利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏情况的情况。
这是一个很大的问题——事实上,在大多数情况下这可能是不可行的。那么我们如何处理需要精细着色的东西呢?
O.网站方法是控制和限制我们允许机器从已经收集的数据制作的推断。例如,我们可以将竞争为预测变量“禁止”司法算法,或者从潜在的求职者的预测分析中排除性别。但这种方法存在问题。
首先,限制大公司使用的信息成本高,技术难度大。它将要求这些公司开放其算法的源代码,并要求大型政府机构不断对其进行审计。此外,一旦收集了大数据集,就有很多方法可以通过迂回的方式推断出“禁忌知识”。假设使用性别信息预测学术成就被宣布为非法。我们可以直接使用变量“拥有的汽车类型”和“最喜欢的音乐类型”作为性别的代理,进行二阶推断并最终基于性别代理进行预测。尽管公司的意图是最好的,但关于性别的推断甚至可能会意外地嵌入算法中。这些二阶推论使得算法的审计更加艰巨。分析中包含的变量越多,二阶推论发生的可能性就越大。
保护令人无知的权利更自由基和潜在更有效的方法是防止在第一位置收集数据。例如,在2017年的开拓举措中,德国通过了立法,禁止自驾,通过他们的比赛,年龄和性别识别街上的人们。这意味着汽车将永远无法通知其驾驶决策 - 特别是当事故是不可避免的时,它需要采取的决策 - 从这些类别中的数据。
一世n line with this way of thinking, the European Union’s new General Data Protection Regulation (GDPR), which became effective in May 2018, states that companies are permitted to collect and store only the minimum amount of user data needed to provide a specific, stated service, and to get customers’ consent for how their data will be used. Such a restriction on data capture may also prevent second-order inferences. One important limitation of the GDPR approach is that companies can give themselves very broad objectives. The now-shut Cambridge Analytica’s explicit objective, for example, was to assess your personality, so technically its controversial collection of Facebook data satisfied GPDR’s guidelines. Similarly, GPDR’s focus on the alignment between data and a given service does not exclude categories of data we find morally questionable, nor completely stop companies from buying excluded data from a data broker as long as the user has consented—and many people consent to sharing their data even with relatively meager incentives. Researchers found that some MIT students would share their friends’ contact data for a slice of pizza.5.显然,还需要进一步的限制。但是有多少?
美国活动家和程序员Richard Stallman给出了这个答案:“有很多方法可以使用数据来伤害唯一安全的数据库是从未收集的数据库。”但限制数据收集太严重可能会妨碍进展和破坏我们支持的利益。
谁应该决定这些权衡?我们都应该自己做。
一世大多数情况下,我们实际上谈论的是你我拥有的数据。我们在没有考虑后果的情况下把它送给了闪亮的应用程序,这是很粗心的。事实上,我们泄露数据的时间太长了,以至于我们一开始就忘记了它是我们的。把它拿回来让我们可以自己决定是否有我们想要或不想知道的东西。将数据恢复给它的合法所有者——我们——巧妙地解决了我们讨论过的许多艰难挑战。它避免了对数据制定普遍的、有先见之明的指导方针的需要。相反,数以百万计的人将根据自己对是非的判断来指导自己的数据使用。我们都可以实时地对公司对数据的使用做出反应,根据对数据的处理方式对公司进行惩罚或奖励。
计算机科学哲学家Jaron Lanier建议了一个额外的经济论点,可以将数据放回人员手中。我们都应该能够从我们的私人数据中获利,他的原因,通过将其销售给大公司。这种方法的问题是双重的。首先,它混乱了数据使用和所有权的道德。愿意提供数据免费是一个很好的Litmus测试,了解数据将用于回答的问题的道德完整性。少数民族群体的有多少人将自由地赠送数据,以创建像Gaydar这样的面部识别应用程序?还有多少人会同意这样做?另一方面,大多数人口很乐意为他们的数据贡献,以寻找癌症治愈方法。其次,对个人数据的经济价值投入(高)可能会迫使人们分享他们的数据并使数据隐私是富人的特权。
这并不是说单独的个人行动是足够的。还需要社会机构的集体行动。即使只有一小部分人口分享他们的敏感数据,结果也可能是大多数人反对的高预测精度。并非我们所有人都意识到这一点。为防止不必要的后果,我们需要额外的法律和公开辩论。
经济学家他写道,世界上最有价值的资源不再是石油,而是数据。但数据与石油截然不同。数据是一种无限的资源,它为个人所有,最好是在没有任何交易经济价值的情况下进行交换。从石油中获取利润会扼杀石油市场。作为第一步,从数据中获取利润为我们提供了创建和维持伦理标准所需的空间,这些标准能够在人工智能的到来下存活下来,并为管理集体无知铺平道路。换句话说,随着数据成为现代世界最有用的商品之一,它也需要成为最便宜的商品之一。
Christina Leuker是Max Planck人类发展研究所的前博士学位。
Wouter Van Den Bos是Max Planck人类发展研究所的研究科学家。
参考文献
1.王,Y.&Kosinski,M.深神经网络比人类从面部图像检测性取向更准确。人格与社会心理学杂志114., 246 - 257(2018)。
2. DRESSEL,J.&FARID,H.预测累犯的准确性,公平性和限制。科学的进步4.,eaao5580(2018)。
3. Hertwig,R.&Engel,C. Homo Ignorans:故意选择不知道。关于心理科学的透视11.,359-372(2016)。
4.卡桑德拉的遗憾:不想知道的心理。心理评估124.,179-196(2017年)。
5. Athey,S. Catalini,C.,&Tucker,C.e.数字隐私悖论:小钱,小费,小谈话。斯坦福大学商业研究论文17-14(2018年)。
更多的阅读
Stallman,R。一种保护您的个人数据安全的激进建议。守护者(2018)。
员工的作家。世界上最有价值的资源不再是石油,而是数据。经济学家(2017)。
铅照片拼贴信用:奥利弗布斯顿/盖蒂图像;Pixabay.