人工智能与伦理【第一章】
我最近买了本《牛津人工智能伦理手册》。这是一本厚达900页的巨著……字号很小,而且没有图片!(看到页数的时候,我还真有点期待它是一本立体书呢🤣)
对于对人工智能和伦理学有一般兴趣的人来说,这本书的内容有点太多了,所以我打算在接下来的几周(几个月……)里逐章总结这本书。
我认为人们现在就应该思考人工智能的伦理问题。人工智能已经影响到我们在社交媒体上看到的内容、美国某些州的量刑决定等等。人工智能的使用及其潜在的正面和负面影响只会变得越来越重要和相关。
对该领域的伦理至少有一个基本的了解是至关重要的,尤其是对于那些创造或使用人工智能和机器学习的人来说。
所以我希望这篇概要能让伦理学更容易理解……它确实不是一个简单的话题。举个例子,这篇概要就有5000字……仅仅涵盖其中一章……想想原著的内容该有多么晦涩难懂吧!
快速免责声明
需要注意的是:我正在理解一个复杂的主题并尝试进行总结,同时我也在学习这个主题。我可能会遗漏一些关键点,也可能误解某些观点,所以如果您发现任何不清楚、遗漏或错误的地方,请留言或联系我!
说了这么多,下面是第一章的内容(第 1 篇)。
第一章:人工智能伦理学(乔安娜·J·布莱森)
人工智能是一个追求两个相关目标的领域:通过心理科学增进对计算机科学的理解,以及通过计算机科学增进对心理科学的理解。
尽管如此,伦理学最初在人工智能领域和人工智能本身中都没有得到充分重视。
只有随着该领域的扩展和发展,这种疏忽才会变得越来越明显,人们才会理解该领域伦理的重要性。
人们投入了大量精力进行思想实验或“直觉激发”,但对于实际可计算的内容以及获取更多信息和(机械/数字)计算能力如何改变/影响人类行为的社会科学研究却投入了足够的时间和精力。
因此,本书(《牛津人工智能伦理手册》)旨在关注法律,因为这是我们目前规范社会和捍卫自由的日常方式。
智力是一个普通的过程
智力的定义:智力是在正确的时间做正确事情的能力。它是应对当前环境带来的机遇和挑战的能力。
智能受能量和/或物理空间的限制。更多的计算需要更多的能量和/或空间,因此智能受到这些因素的限制。这就是人类智能有限的原因,我们的大脑所能容纳的计算能力是有限的。
关于计算能力,还有一点需要指出,量子计算也可能无法解决这个问题,因为虽然计算机本身所需的空间较小,但计算所需的功率可能相同甚至更高,具体取决于所进行的工作类型。
作者进一步解释说,“人工智能”中的“人工”只是一个限定词,用来表明谁应该负责,即人工智能是由人类创造的,因此人类理所当然地应该对其负责。
值得注意的是,据我们所知,只有人类才能就责任的明确概念进行沟通和协商。
随着时间的推移,当我们认识到行为的后果时,社会往往会根据行为是积极的还是消极的来分配责任和问责,或者功过是非。
我们如何处理和部署人工智能和数字系统的使用,将决定我们是会模糊/分散责任,还是能够将责任集中到更多人身上(理论上应该是这样,因为我们可以处理更多信息)。
这是可以利用法律来确保责任得到适当分配的领域之一(例如,如果缺乏这种照护,可以使用过失法)。
这一点需要特别思考,因为智能的定义(以及“人工”这一限定词)导致诸如“感知、意识或意图”之类的争论经常被用来掩盖辩论中责任所在。
我对智力的主要理解/想法是:智力是一个普通的过程。
智力是指在当前情况下,根据现有信息做出最佳决策的能力。
智能受物理空间和能量的限制——这就是为什么人工智能能够超越我们,因为它受这些因素的限制要小得多。
“人工智能”只是一个限定词,意思是“由人类制造的”,这使得人工智能的创造者默认要对其行为负责。
我们是否应该因为人工智能没有意识而否定其自身责任,或者随着人工智能的显著发展,我们是否有可能将其责任归咎于人工智能?
人工智能(包括机器学习)是人为设计的产物。
人工智能是经过精心设计的。尽管模型可以部分自动化流程(例如利用提供的数据进行自我训练),但仍然存在许多决策,例如:
- 用什么数据来训练系统?
- 系统有哪些输入?
- 系统可以生成哪些输出
- 决定每个神经元之间权重的方法是什么?每个神经元如何学习?是否使用反向传播等方法?
人工智能是经过精心设计和创造的,其目的是学习数据中的规律,然后以某种方式利用这些规律(分类、预测等)。
这些决策和过程很容易记录下来,也应该记录下来,以便追究设计者的责任。
这可以类比于制造业,制造业的流程应该有清晰的材料来源、流程、维护等方面的文档记录。
从本质上讲,我们在构建人工智能系统时,可以使系统更容易理解或更难理解,这些都是我们可以控制的设计决策。
同样,人工智能系统中问责制和透明度的要求程度也是设计决策,尽管这些设计决策是由监管机构、法院和律师决定的。
鉴于人工智能是由人设计的,而且我们对人工智能的设计有很大的控制权,作者认为,明智的做法是尽量减少对现有法律的修改以涵盖人工智能,而应着重于最大限度地遵守现有法律并提高其相关性。
我对人工智能(包括机器学习)的主要看法/思考是:人工智能的出现是设计使然。
人工智能的设计使我们有能力(也可能有责任)设计出尽可能符合现有法律的人工智能系统。
我们应该在人工智能系统中融入透明度。我们还应该清晰地记录所做的设计决策,尤其是在训练数据和模型验证(检查输出是否符合预期)方面。
设计产品的性能很容易解释。
许多领先的人工智能专家认为,如果人工智能必须能够解释其工作原理,即展示“正当程序”,这将极大地限制创新,因为大多数先进的机器学习技术都过于复杂,无法解释。
但作者认为这种说法并不正确,他们举例说:“在审计中,我们不会要求提供员工神经元和突触的图谱,而是要求提供审计跟踪和证人,以表明已经遵循了适当的流程”(意译)。
虽然能够“被传唤到证人席”的人数可能会减少,但人工智能可以实现一种记录保存标准,这种标准可能比依靠人类的回忆和过程记录更加稳健,也更容易实现。
任何人工智能系统都可以记录相关信息并维护这些信息的日志。至于记录哪些信息以及日志保存多长时间,则由监管机构和人工智能系统的创建机构决定。
我们无需完全了解人工智能的工作原理,也无需了解扭矩就能理解自行车法规,我们只需要足够的信息来确保其合法使用,并“做正确的事情”。我们希望能够证明一家公司言行一致,例如,它不会监视用户或使个人处于不公平的劣势,或者外国代理人无法在机器学习数据集或新闻推送中植入虚假信息。
我们可以通过人工智能系统的部署人员、部署方式和部署时间进行追踪。我们还可以追踪验证测试的构建、结果和应用。即使是完全的“黑箱”,也可以基于输入和输出进行测试,并计算结果的概率。
事实上,人工智能的测试和监控远比政府或生态系统等事物简单得多,而且我们已经有几十年的方法来使用更简单的模型来监控更复杂的模型。
最后,不要以为人工智能目前不受监管。所有人类活动,尤其是商业活动,都发生在某种监管框架之内。问题在于,我们如何优化现有框架以应对人工智能带来的新挑战。
我对“设计成果的性能很容易解释”这一主题的主要结论/想法。
人工智能及其相关公司应该能够创建某种形式的审计追踪记录,包括人工智能的构建和训练过程,以及其交付成果的方式。
系统越透明,就越容易确保系统“以最佳利益”运行,并“符合”现行法律和公司使命。
顺便一提——如果在人工智能系统一开始就设计解释机制,那么通过了解哪些神经元/节点群被激活以及人工智能使用什么来做出决定,肯定更容易纠正偏见和意外行为(例如“幻觉”)。
利用先前的计算可以提高智能
由于瞬时计算能力的限制,许多智能都是基于过去的计算结果。
人工智能正以惊人的速度发展,这在很大程度上得益于过去的研究成果,这些成果有助于对庞大的数据集进行分类,从而促进更高效的学习。但与此同时,有利的一面也伴随着弊端。
刻板印象的存在是现代社会现状的反映。我们都认同,由此产生的一些固有观念(例如软件开发人员必须是男性)并不可取,我们希望尽可能地改变这种现状。
但仅凭数据无法解释这一点,我们必须通过精心整理和引导来影响它。
这就引出了一个关于人工智能为何爆发式增长的理论。并非我们以指数级速度创造出新的算法,而是我们拥有了更强的计算能力和大量可用于训练人工智能的新数据。
我们可以预期这种情况会趋于平稳,因为我们能够利用的数据量(过去的计算结果)是有限的。
然而,尽管这种增长可能会趋于平缓,但人类和人工智能的增长能力届时将会(而且已经)提升。我们彼此之间可以获取的信息更多(反过来,人工智能也将从我们和其他人工智能系统中获取更多信息)。
随着我们接触到更多元的文化和思想,以及更多的人/资源,我们都会变得更聪明。
尽管如此,作者认为我们(至少在可预见的未来)不会被人工智能取代,这对法律法规产生了重大影响。
我对“利用先验计算提高智能”这一主题的主要理解是:
人工智能的爆炸式增长归功于计算能力的提高,以及用于训练人工智能的数据分类和可用性的改进。
过去的工作(过去的计算)对人工智能和人类理解的增长及其潜力有着巨大的影响。因此,我们目前所看到的这种爆炸式增长终将达到瓶颈。这个瓶颈究竟在哪里,是一个值得思考的问题。
刻板印象和偏见在所有数据中都很普遍,因为它反映了我们的社会,我们如何在不造成更大损害的情况下纠正这些偏见呢?
人工智能无法完全复制人类(所有模型都是错误的)
计算机科学经常被误认为是数学的一个分支,这导致人们忽视或忘记了计算的物理限制,例如时间。
人工智能不太可能使我们永生,将你的大脑上传到计算机需要计算机镜像大脑的结构,而且还需要进行数万亿纳秒级的精确测量。
我们所能达到的最接近人类的程度,只能是一种非常近似的抽象,它或许有其用途,但永远无法真正代表人类。而且,用硅制造的大脑也无法匹配我们现象学(一种关于经验的哲学,即人类)/物理经验。
即便我们设法实现了这一点,技术的过时速度也远比人类的寿命短得多。文化亦是如此。在一个缺乏持续更新的社会里,任何数字化的自我都会很快过时。
如前所述,任何旨在承载我们智慧的数字化自我抽象,都仅适用于当前的语境。但我们创造的任何抽象都只是某一时刻智慧的快照,它并非存在本身。
因此,任何抽象(人工智能复制品)本质上几乎都会立即出错,因为它能够执行(或不执行,取决于其物理能力)原始实体无法执行的操作,而该原始实体是被克隆/创建的。
附注:这信息量很大,需要消化和提炼,但关键在于,一旦智能体被复制,由于计算速度、物理能力等方面的差异,它就会开始与原体产生偏差,因此永远不可能成为精确的克隆体超过一纳秒。
如今,“积极永生”的概念已经出现。例如,创作小说、为社会做出贡献等等,并不需要实体在场。但是,从维护社会秩序、从法律法规的角度来看待人工智能时,区分这两种状态至关重要。任何对人的抽象化都应被视为人的延伸,或许更像是知识产权。
我对“人工智能无法完全复制人类(所有模型都是错误的)”这一主题的主要看法
任何试图将我们自身克隆到数字大脑和机械实体中的尝试都意味着该模型已经过时。此外,该模型永远无法像我们生物体那样行动,因为它不受相同的计算和物理限制。
因此,任何上传我们意识的尝试都应该导致我们区别对待人工智能和人类的意识,或许期望作为该意识模型的人类可以将其视为知识产权,但也可能对其行为负责。
人工智能本身不受法律或条约的约束。
法律的首要功能并非补偿,而是维护社会秩序。它通过劝阻人们作恶来实现这一目标。法律明确规定(有时……)哪些行为属于错误行为,然后确定作恶的成本和惩罚。
罚款和赔偿显然可以用来纠正错误,但这对人工智能系统来说毫无意义。我们可以指示人工智能不要做错事,但它永远不会像一个拥有有限生命的生物那样厌恶牢狱之灾。
核心问题在于,法律与人类和社会共同演化,其目的是为了约束人类的行为。即使是受法律约束的公司,也只有在法律影响到企业所有者和经营者时才会对其心存畏惧。
因此,作者认为,最终必须由人类为人工智能的行为负责。所以,如果你作为人类,决定让人工智能自主运行且不受监管,那么一旦人工智能违法,你就要承担责任。
智能本身并不意味着使法律有效的那些动机对人工智能也同样有效。孤独感、社会认同感、有限的寿命、社会地位以及许多其他使法律能够有效控制人类行为的因素,对人工智能并不适用。事实上,人工智能甚至可能根本无法理解或认同这些概念。
我对人工智能本身的主要看法是:法律或条约都无法阻止人工智能的发展。
用法律来阻止人工智能做错事的根本问题在于,法律用来控制行为的那些因素,比如害怕被孤立、社会地位、浪费短暂生命的时间等等,对人工智能来说都无关紧要。
因此,我倾向于同意作者的观点,即人工智能最终必须受到人类的监督,并且必须由人类对其行为负责,这样法律才能产生任何效果,甚至才能适用。
否则,如果人工智能违反了法律,可以简单地将其关闭,并几乎立即创建一个新的实例,这意味着人工智能可以有效地行动而不必担心任何后果。
人工智能和信息通信技术影响着人类的方方面面。
前文已述,人工智能系统可以被设计成可解释的,并且只有人类才能对人工智能的行为负责。因此,任何关于人工智能本身应该值得信赖、承担责任或接受问责的说法都是错误的。
从法律角度来看,人工智能的目标是实现透明,以便能够正确划分人为责任。本质上,人工智能可以可靠,但绝不应值得信赖;人工智能的任何行为都不应需要人们“盲目信任”来判断其是否出于“善意”等等。消费者和政府应该有信心,如果人工智能犯错,有办法确定谁应该为在我们家庭、企业和政府中使用的人工智能的行为负责。
人工智能已经帮助我们识别出语言中可能存在的隐性偏见,以及这些偏见如何反映在我们的现实生活中。由于人工智能能够重用和重构过去的计算结果,它以一种能够揭示我们社会诸多问题的方式,突出并重新构建了信息,但这并不会让我们在不付出努力的情况下自动变得更好。
Caliskan、Bryson 和 Narayan(参见“从语言语料库自动提取语义” https://core.ac.uk/reader/161916836?utm_source=linkout)讨论了一项著名研究的结果:在其他条件完全相同的简历中,名字听起来像典型的非裔美国人的求职者获得面试机会的可能性只有名字听起来像欧裔美国人的求职者的一半。鉴于此,企业正在利用人工智能来避免隐性偏见,并选择更多样化的简历进行筛选。这表明,只要运用得当,人工智能可以用来避免重蹈覆辙。
人工智能系统不可能具有道德,因为它无法被追究责任,所以我们永远不能将我们的道德观念强加给一个系统,并希望它的行为符合我们的道德标准。
试图赋予人工智能道德的难点,除了我们无法追究其行为的责任之外,还在于意图问题。人类的意图难以表达,因此人工智能应该保持透明,并能够接受人类监督下的纠正。
随着越来越多的AI系统承担起信息共享和管理以及社会决策的责任,透明度和报告机制的需求也日益迫切。否则,掌权者可能会严重影响甚至滥用AI系统,从而损害弱势群体、对掌权者而言无关紧要的人,甚至是被掌权者视为威胁的人的利益。
请记住,在人工智能和类似系统中,“掌权者”可能只是跨越多个时区和国界的个人协调行动,如果不加以控制,即使是人工智能运行中的细微变化也可能造成损害。
许多人认为机器学习是新一代人工智能,训练机器学习的数据越多,人工智能就越好/越智能。然而,统计学告诉我们,在假设样本集完全随机的前提下,进行预测所需的数据点数量受限于数据本身的变异性。这一点至关重要,因为我们真正需要近乎无限/完美数据的唯一领域是监控(我们需要掌握一切信息),因此在设计数据集和系统时应考虑到这一点。
信息通信技术(ICT)意味着我们现在可以通过交换信息来降低甚至消除成本。这种“信息易货”意味着我们向企业提供信息以换取服务和/或产品。由于这些交易没有明确的价格,这就形成了一个黑市,或者至少是不透明的市场,减少了可衡量的客户数量,从而减少了税收收入。这或许可以部分解释为什么我们无法看到人工智能带来的生产力提升……因为这些交易无法用传统方式衡量。
本质上,人工智能为我们提供了完成所有有意行为的新方法,以及更多其他方式。人工智能在多大程度上简化了某些任务,又在多大程度上增加了另一些任务的难度,这一点并不直观或显而易见。它提升或降低了某些类型的人类知识和技能、社交网络、人格特质乃至地理位置的价值。它改变了身份和安全的计算方式。它也引入了新的工具,用于沟通和思考所有这些变化,并做出相应的调整。但它无疑使身份,尤其是在群体层面,变得更加流动,这削弱了有效治理的能力。
我对人工智能和信息通信技术如何影响人类每一项努力的主要看法
人工智能可以很可靠,但并非完全值得信赖。我们应该能够提取日志和信息,从而确定个人或公司的责任。这些数据应该足以让我们不必“臆测”其真实意图。
过去的计算结果凸显了我们的认知偏差。我们可以利用人工智能来纠正这些偏差,但如果不谨慎,它也可能放大这些偏差。
人工智能不可能具有道德性,因为一个实体要具有道德性就必须承担责任,而且我们也无法以任何有意义的方式衡量“意图”。
透明度至关重要,它可以确保人工智能不被团体、个人或公司利用或操纵以达到自身目的。
我们应该警惕那些想要获取“所有数据”来改进人工智能系统的公司和个人。统计数据显示,做出准确预测所需的数据量是有限的(假设数据集是真正随机的),只有在监控领域才需要“近乎无限的数据”。
我们已身处“信息易货”时代,这意味着信息共享无需直接赋予货币价值,从而催生了黑市或至少是不透明的市场,导致税收减少。人工智能的发展只会加速这一趋势。
虽然这一章篇幅很长,内容也很密集,涵盖了很多要点,但对我来说,最关键的收获是人工智能本质上需要具有防御性,需要有办法密切监控它,并确保“作恶者”无法对其输出产生负面影响,因为它没有道德感,也永远无法做出道德行为。
谁说了算?人工智能与治理
人类的计算能力受限于大脑容量,因此我们对疼痛、快乐、压力等的反应变化不大。所以,我们的地理位置、邻居以及当地环境对我们影响很大,因此地方治理始终是必要的,以应对这些影响。
随着世界变得越来越全球化,人们投入了更多精力来决定哪些是“世界层面”的治理问题(例如基本人权),哪些是地方治理问题。
这就引出了欧盟和数据治理的问题,以及如何将个人主权扩展到包括其数字/网络资产/个人数据。
这进一步引出了财富和权力的问题。虽然它们可能与伦理没有直接关系,但二者却紧密交织在一起,因为拥有财富和权力的人可能并非以他人的最佳利益为出发点,而是为了维护自身利益,甚至试图规避或操纵法律共识以谋取私利。我们不太可能独立地解决财富不平等和人工智能问责制这两个问题。
毋庸置疑,随着全球化的加剧以及距离成本的降低(无论是实物资产还是数字资产及产品),财富差距进一步扩大。本地市场的重要性下降,竞争不再局限于本地,因此某些行业的竞争也随之减少。
财富差距的扩大往往凸显了治理的必要性。政府的主要职能之一是重新分配资源,或者至少是合理配置资源,以解决社会问题。因此,过度的不平等可以被视为治理的失败。
如果距离成本足够低,那么就可能出现全球垄断。
我们今天看到的这些问题都不是直接由信息通信技术引起的,而是因为监管措施没有针对全球规模的数据和服务交换而设计。
与此同时,其他一些问题与其说是被制造出来的,不如说是被信息通信技术和人工智能暴露出来的(例如,我们对其他国家和政权可能压迫其公民的新闻的全球意识,或者由于大型科技公司主要来自美国,许多“美国问题”现在变成了“全球问题”)。
这一切让我们意识到,人类也深受算法的影响。法律,例如强制性量刑,会进一步加剧这种影响。不过,通常情况下,人类还是有一定的“回旋余地”。
例如,信任是一种与无知合作的行为。信任允许欺骗或创新,有时甚至至关重要。允许创新以找到新颖且更优的解决方案,对人类的进步至关重要。但数字时代意味着信任以及对信任的需求正在被侵蚀甚至消除。一些国家可能会允许数字时代使自由思考变得过于困难或充满个人风险。这将使国家更容易受到安全威胁,同时也会侵犯言论自由(一项基本人权)。
在某些国家,我们似乎看到法律倾向于维护集体利益,而牺牲个人权利。这不仅关乎权利,也关乎社会的稳健性。多样性和个性带来多种选择,而拥有多种选择则能在危机表明需要变革时,迅速调整行为。随着数字时代从根本上改变了个人隐私,社会需要找到新的方法,重新为人们的思考、创新和观点保留“回旋余地”。
作者认为,实现这一目标的最佳途径是允许人们了解历史,而不是摧毁历史,并承认和捍卫个体差异,包括缺点和学习的必要性。但心理和政治现实仍有待探索和理解,并且可能因政体(公民政府或宪法的形式或过程)而异。
我对《谁说了算?人工智能与治理》一书的主要见解
说实话,我觉得这一部分内容有点杂乱无章,很多观点之间缺乏逻辑联系,所以我的理解比较有限。倒不是说每个观点都不有趣,只是我不太明白作者想表达什么。
综上所述,我总结出以下几点:
全球化将会(而且已经)削弱地方治理,但由于地方环境和文化因素,地方治理至关重要。
治理还具有资产分配和再分配的关键功能,随着我们进入“创造时代”(我用来指人工智能时代的说法),这一点将变得更加重要。
令人担忧的是,我同意法律朝着“维护群体利益”的方向发展是危险的(而且已经开始出现)。最终,人们的定义将取决于他们无法控制的特征,而不是他们的品格、信念和信仰,这将导致基于种族、宗教、地理位置等因素的更大不平等。人工智能系统尤其如此,因为设计不佳的人工智能会基于在特定情况下可能无关紧要的因素来对个人做出决定。
总结以及机器人本身
为了保持本文“简短”(我保证,5000 字与原文相比很短,哈哈!),本节纯粹是对前面观点的总结,因此我不会在这里再次总结。
我的心得体会
需要消化的信息量很大。
我认为我真正需要考虑的最重要因素是“先验计算”。我以前从未以这种方式看待人工智能或机器学习,但对我而言,这显然是人工智能发展速度不断加快的原因之一。我们拥有更多的数据,更强大的处理能力,我们可以不断利用呈指数级增长的先验计算资源。
这也引出了一个问题:“平台期在哪里?”这个问题在每个行业、每项新技术出现时都会发生。真正重要的问题是:“我们是在上升期的起点,还是已经接近顶峰?”因为这无疑将决定未来的发展方向,以及从伦理角度来看我们需要考虑哪些因素。
此外,人工智能不能是“值得信赖的”,只能是“可靠的”,因此透明度和可审计性至关重要,这是我需要进一步思考和消化的关键问题。
总的来说,我很喜欢这第一章,虽然其中引入了很多“不完全成型”的想法,但我感觉它为接下来的章节奠定了良好的基础!
希望您喜欢这篇总结,请在评论区告诉我您的想法
。