人工智能时代的伦理学

2019-10-18 09:39:31

数字信息技术使几乎任何人、任何时候、任何地点都可以随时获取信息。这对我们社会的各个方面产生了深远的影响,从工业制造到分配,再到商品和服务的消费。不可避免地,就像在以前的技术革命中一样,数字信息技术的影响是如此普遍,以至于我们不再简单地采用它-做我们以前做过的事情-而是通过改变我们的行为方式来适应它。


今天,数字信息技术重新定义了人们如何在社会上相互互动,甚至如何找到他们的伴侣。重新定义消费者、生产者和供应商、工业家和劳动者、服务提供者和客户、朋友和合作伙伴之间的关系已经在社会中制造了一场动荡,正在改变后工业时代的道德推理。

我们正站在下一波技术革命的尖端:人工智能。20世纪末的数字革命给我们带来了信息,使我们能够迅速做出决定,而做出决定的机构,从根本上说,就在于我们自己。人工智能正在通过使决策过程自动化来改变这一状况,保证更好的定性结果和提高效率。人工智能游戏系统在击败世界国际象棋冠军加里·卡斯帕罗夫(Gary Kasparov)和世界围棋冠军克杰方面取得的成功,突显出人工智能在计算当前决定对未来可能采取的举措的影响方面优于人类专家的定性方面。

不幸的是,在这个决策过程中,人工智能还剥夺了人类行动的透明度、可解释性、可预测性、可教性和可审计性,用不透明取代了它。移动的逻辑不仅不为玩家所知,而且对于程序的创建者来说也是未知的。当人工智能为我们做出决定时,决策的透明度和可预测性可能会成为过去。

想象一下这样一种情况,你的孩子回到家里,要求和她的朋友一起去看电影。你很乐意。一周后,你的另一个孩子也带着同样的要求来找你,但这一次,你拒绝了。这将立即引起不公平和偏袒的问题。为了避免任何偏袒的指控,你向你的孩子解释说,她必须完成她的家庭作业,然后才能获得任何零花钱。

在没有任何解释的情况下,家庭中肯定会出现紧张气氛。现在,想象一下用一个人工智能系统代替您的角色,该系统收集了数千个处于类似情况的家庭的数据。通过研究对其他家庭的补贴决定的后果,得出结论:一个兄弟姐妹应该得到零花钱,而另一个兄弟姐妹不应该得到零花钱。

但人工智能系统无法真正解释这一推理--只是说它权衡了孩子的头发颜色、身高、体重和所有其他属性,从而做出了一个似乎对其他家庭最有效的决定。那是怎么回事?

在法院,过去的裁决规定法官必须遵循先例,即使情况不相同,但大致相似。一致性在司法、政府、关系和伦理等方面都很重要。人工智能没有关于盯着先例的法律要求。对于人类来说,人工智能的决定可能是真正的人工的,因为人类往往有有限的直接或间接的经验,而机器可能可以获得大量的数据。

人类不能在远距离的时间尺度上筛选他们的经验,而机器可以很容易地做到这一点。人类将排除被认为与决策无关和无关紧要的因素,而机器则不会排除任何因素。这可能导致在人类所能理解的范围内不尊重先例的决定。随着企业和社会迅速转向人工智能,人工智能可能会在更长的时间范围内做出比人类更好的决策,人们在短程环境下将感到困惑和沮丧,侵蚀一个正常运转的社会的唯一货币,即信任。

为了理解人工智能决策是如何被人工改造的,研究人类是如何做出决策的是很重要的。人类的决定可以由一套明确的规则指导,也可以由简单基于结果论的联想来指导,或者由一种组合来指导。人类对哪些信息与决策相关也是有选择性的。由于缺乏选择性,机器可能会考虑到人类在做出决定时认为是不礼貌的因素。

这方面有无数的例子,从微软在twitter上发表煽动性的反犹太主义言论后关闭其聊天机器人tay,再到波士顿大学的一项研究,该研究发现“老板”、“建筑师”和“金融家”等词与男性之间存在着性别联系,而女性则使用了“护士”和“接待员”这样的词。这可能是由数据证实的,但它与我们明确的价值观形成了鲜明的对比。如果数据驱动的过程依赖这些人工智能算法产生的输出,它们将产生偏颇的决策,往往违背我们的道德价值。

ProPublica在2016年为这方面提供了相当明显的证据。美国法院使用的一种计算机程序错误地标记了黑人被告,他们在两年的时间内没有累犯的可能性几乎是白人被告的两倍--45%,而白人被告是23%。如果人类也这么做,就会被斥为种族主义者。艾揭露了我们明确的价值观和集体经验之间的分裂。我们的集体经验不是一成不变的。它们是由重要的社会决定决定的,而这些决定又是以我们的道德价值观为指导的。我们真的想把决策过程留给那些只从过去学到东西的机器,而不是依赖于它,而不是塑造未来的机器吗?

考虑到人工智能在医疗诊断、金融服务和就业筛选等领域的应用规模,任何一个单一问题的后果都是巨大的。随着算法依赖于越来越多的特性来提高可预测性,管理此类决策的逻辑变得越来越难以理解。因此,我们失去了决策的整体方面,抛弃了所有的原则,而倾向于过去的观察。在某些情况下,这可能是不道德的,在某些情况下是非法的,在某些情况下是短视的。累犯算法公然藐视无罪推定和机会均等等原则。

一致性是道德规范、道德规范和诚信不可缺少的。我们的决定必须坚持高于统计准确性的标准;几个世纪以来,相互信任、减少伤害、公平和公平的共同美德已被证明是任何推理系统生存的重要基石。由于缺乏内部逻辑一致性,人工智能系统缺乏稳健性和问责制-这是建立社会信任的两个关键措施。通过在道德情感和逻辑推理之间制造裂痕,数据驱动决策的不可理解性丧失了批判性参与决策过程的能力。

这是我们生活的新世界,复杂的决定被缩减为反射性的选择,并被观察到的结果所强化;复杂性被简化为简单,道德被降低为效用。如今,我们的伦理意识为决策提供了一个框架。不久,我们的决定就会对我们的伦理道德产生怀疑。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。