发布于 2026-01-06 0 阅读
0

由 Mux 呈现的人工智能(非)智能开发者全球展示挑战赛:展示你的项目!

论人工智能(或非人工智能)

由 Mux 赞助的 DEV 全球展示挑战赛:展示你的项目!

这篇文章最初发表在《托拉与科技》(Torah && Tech)周刊上,这是我与好友 本·格林伯格共同创办的周刊。点击此处即可订阅,每周一期,直接发送到您的邮箱


本周的T&&T栏目将采用与往常不同的形式。通常情况下,我们会介绍当周《托拉》经文中的一个要点,并尝试从中汲取教训,运用到我们的科技生活中。但本周,我想分享一些我个人的想法。

这更像是一种“意识流”式的交流,读起来可能更像一场塔木德式的辩论,而不是一篇布道。你最终可能会产生比答案更多的问题(这是一件好事)。我们的目的是开启一场对话。如果你想分享你对所提出问题的看法,请随时联系本或我,我们很乐意与你交流!

——叶希尔

电脑屏幕上出现可怕的绿色字母

最近,一家信用卡公司被发现经常向经济状况相同的女性提供的信贷额度比男性少(有时甚至少 20 倍),此事引发了轩然大波。

当被指责存在歧视性做法时,该公司辩称所有决定都是由算法做出的,因此不可能存在偏见。

在这个案例中,算法偏差造成的影响仅限于经济方面。然而,算法已被要求做出更为重要的决策,例如谁应该获得保释以及保释金额是多少,以及如何管理医疗保健;这些决策可能关乎生死。

不久前,我看到了一场关于我们是否可以追究人工智能(AI)对其行为责任的犹太教律法讨论。

目前,这种讨论纯属理论探讨,因为这需要人工智能拥有远超我们现有认知的善恶观念。但最近发生的一些事情确实让我思考了一个略微相关的问题:如果有人编写程序让人工智能做出某个决定,而人工智能造成了伤害,那么部署人工智能的人应该在多大程度上为人工智能的行为承担责任?

简单来说,说“这不是我做的决定,这是算法做出的”这种说法是否合理?

要找到《托拉》对此问题的看法,难度可想而知;毕竟,《托拉》中并没有提及电脑。我们必须发挥创造力,看看能否找到类似的案例。

我们可以采取的一种方法是将人工智能视为部署它的人的使者或代理人。

在犹太教律法(Halachah)中,一个人可以委托一位使者(Shliach)代表自己行事,而这项行为的功劳将归于委托人(Meshaleach)。例如,如果您委托某人代表您出售某物,那么这笔交易的功劳将归于您,如同您亲自执行了这笔交易一样。

如果任命使者的人是为了让他做错事(例如偷东西)怎么办?

在这种情况下,《塔木德》规定,“Shliach”的概念不适用于涉及罪恶的地方。

换句话说,使者应该拒绝这项有问题的工作,如果他们执意去做,就要承担犯下罪孽的责任。

然而,试图将这条规则应用于人工智能却会引发一些问题。之所以规定,当涉及罪恶时,使者(Shlichut)的职责不适用,是因为使者需要运用自身的道德判断力来拒绝使者职责。这就要求使者具备辨别是非的能力和知识,以及自主决策的权力——正如前文所述,人工智能在这两方面都还远远无法达到。

使用人工智能似乎类似于使用工具。就像一个人用箭射杀他人时,他不能辩解说“不是我干的,是箭射的”,使用人工智能可能也是如此。

你可能会说,人工智能与箭矢不同,一旦部署了人工智能,你就“失去了对它的控制”。人工智能背后的算法是一个“黑匣子”,即使是编写和训练人工智能的程序员也无法知道它做出这些决定的原因。

因此,与射箭行为与受害者受伤之间存在直接因果关系不同,人工智能中的因果关系并不那么明确。

但话说回来,《塔木德》中似乎讨论过一个与此类似的案例。

关于有人在自家土地上放火,火势失控并损坏了邻近土地的案例,《塔木德》有如下记载:“我们了解到,拉比约哈南曾说过:[他要为]自己的火负责,就像[他要为]自己的箭负责一样。”

然而,仔细审视约哈南拉比裁决背后的逻辑,就会发现一个关键区别。你之所以要为火势蔓延承担责任,是因为火势蔓延是点火的必然结果。例如,如果火势蔓延是由于异常强风造成的,那么你就无需承担责任,因为火势蔓延是无法预测的。

有人可能会认为,人工智能做出了连编写其程序和算法的人都无法预测的决定,这意味着人工智能在此具有某种自主性。这种自主性或许不足以追究人工智能的责任,但或许足以免除部署人工智能的人的责任(只要他们不知道人工智能正在做出错误的决定)。

使者(Shliach)的完全自主性和工具/火的完全无自主性之间是否存在某种联系?

我们来看另一段文字:

“将火交给孩童或精神障碍者的人,不受人间法律的约束,但受天道的惩罚。”

“不受人间法律约束,却受天律约束”这一概念在《塔木德》中经常被用来指代那些在法律上合法,但在道德上却不道德的行为。因此,虽然法院不能因为孩子纵火而起诉某人,但这样做在道德和伦理上仍然是错误的。

所以,或许我们可以这样给人工智能分类?就像一个有能力做决定,但又不足以分辨是非的孩子?那些躲在黑箱算法背后的公司,在技术上是否合法,但在道德上是否值得怀疑?

正如我一开始所说,我不知道这些问题的答案,但我希望我们能够展开讨论,因为这类问题仅仅是理论哲学家的领域,而这种时代正在以我们想象中更快的速度结束!

文章来源:https://dev.to/yechielk/on-artificial-un-intelligence-4e35