电脑系统网-专业的系统软件下载基地!

当前位置:首页 > IT资讯 > 业界 > 详细页面

为了获诺奖,AI 不仅要懂物理学,还要懂哲学?

编辑:电脑系统网 2024-10-14 来源于:电脑系统网

就在几天前,2024年 年诺贝尔物理学奖授予人工神经网络和机器学习,以表彰“利用人工神经网络进行机器学习的基本发现和发明”。简单地说,人工神经网络是计算机处理大量数据和分析复杂问题的“大脑”,通过节点(即“神经元”)实现程序处理,随着程序执行,不同节点之间的相关性会随着节点的活动而增强或减弱,从而获得类似的“学习”过程,并合理地给出我们预期的结果。

毫无疑问,人工智能(AI)我们社会的重要性正在逐渐增加。现在,AI 该模型通常被用来帮助人们做出影响生活的重大决策,包括医疗诊断、财务决策、求职等。

然而,尽管人工智能越来越融入社会,但我们仍然很难解释为什么人工智能系统会做出这样的决定。AI 模型如何通过大脑扫描来判断大脑是正常的还是肿瘤?为什么 ChatGPT 决定输出这段文字而不是另一段吗?在创建有益的人工智能系统时,这些都是需要回答的重要问题。但在回答这些问题之前,首先要解决的挑战是哲学问题:我们应该如何解释? AI 系统决策?解释 AI 决定意味着什么?

哈娜・乔克勒

哈娜,伦敦国王学院教授・乔克勒(Hana Chockler)致力于将哲学与计算机科学知识相结合,研究解释人工智能系统决策的新方法。正如乔克勒在最近的一次活动中解释的那样,她和她的团队开发了一个名字 ReX (Responsibility-based Explanations,基于因果解释)的工具可以解释为什么图像标记人工智能模型(称为图像分类器)以这种方式标记图像。她的研究结果可以直接应用于医学图像领域,让医生更好地了解人工智能系统,甚至与人工智能系统互动,判断大脑扫描结果是否健康。重要的是,使用 ReX 不需要了解人工智能系统的内部操作,这使得它成为一种普遍的工具,不仅可以应用于当前的人工智能系统,也可以应用于未来更复杂的人工智能系统。

乔克勒的职业生涯始于计算机科学领域的形式验证。在这一领域,计算机科学家使用正式的数学方法来确定程序是否真的做了我们想做的事情。也就是说,即使验证程序是正确的,我们能确定程序真的做了我们想做的一切吗?乔克勒说:“事后看来,”这本来就是关于解释的问题:我们如何解释肯定的答案?如何解释没有错误?”

在乔克勒攻读博士学位期间,计算机科学家、哲学家约瑟夫・哈尔彭(Joseph Halpern)她的演讲引起了她的注意。在哲学上,解释结果的问题属于因果关系的范畴。要解释结果,我们必须首先知道结果的原因是什么。一旦我们知道结果是如何产生的,我们就可以通过给出原因来解释结果。

哈尔彭正在创造一个新的哲学框架来定义因果关系,他称之为实际因果关系。乔克勒在听哈尔彭的演讲时意识到,哈尔彭用他的框架解决的问题与她正在研究的问题非常相似。唯一不同的是,在她的研究中,需要解释的结果是计算机程序的输出。“这是一个幸运的巧合,”她说,“当时我正在研究纯计算机科学,但我突然发现这些哲学概念实际上是有用的,这对我来说是一个很大的范式变化。”

乔克勒开始与哈尔彭合作,并与她的博士导师奥尔娜合作・库普弗曼(Orna Kupferman)一起写了一篇论文,展示了她在博士论文中使用的形式验证方法如何从实际因果关系的角度进行重构。重要的是,他们还介绍了如何量化因果关系或给它一个值,这对她未来的工作非常重要。这种量化的想法将为解释大人工智能模型输出结果的实际因果关系奠定基础。

然而,当时没有人注意到这项工作。那是在 2002 2008年,人工智能正处于一个不太受重视的时期。乔克勒回忆道:“没有人理解我们在说什么。”。“每个人都在想,为什么我们突然引入哲学?这是什么胡说八道?”

“当然,现在看起来很搞笑,因为现在大家都在讨论因果关系。”

因果关系是什么?

为了理解哲学家是如何思考因果关系的,你可以想象这样一个场景,外面下雨了,你正在回家的路上。当你回家时,你从头到脚都湿透了。那么雨水会让你全身湿透是什么意思呢?

1739 大卫,苏格兰哲学家・休谟(David Hume)因果关系的第一个定义被称为反事实因果关系。根据反事实因果关系,休谟会说:雨会导致你下雨,因为如果没有雨,你就不会下雨。

这种解释的一个问题是,它没有考虑多种重叠原因的可能性。你不妨考虑这样一种情况:你走在回家的路上,外面下雨了。这时,一辆车经过一个水坑,溅了你一身水。当你回家时,你的身体又湿了。

在这种假设下,如果没有下雨,你仍然会被汽车弄湿。同样,如果汽车没有经过,你仍然会被雨淋湿。因此,雨和汽车并不是你被淋湿的相反原因。但可以肯定的是,它们确实是你被淋湿的原因!

实际因果关系

通过拓宽因果关系的概念,实际因果关系解决了这一问题。在实际因果关系下,我们可以想象一个假设世界,它和当前世界一样,但没有汽车,在这个世界上,雨是你被淋湿的反事实,因为我们可以想象这样一个世界,所以我们说雨可以是你被淋湿的实际原因;同样,我们也可以想象另一个假设世界,除了没有雨,其他方面是一样的,在这个世界上,汽车溅到你身上是你被淋湿的反事实。所以,在原来的世界里,汽车溅到你身上也是你被淋湿的实际原因。

实际因果关系的一个主要优点是它可以量化原因的重要性。在第一个没有汽车的世界里,雨完全是你被淋湿的原因。在第二个世界里,我们只需要改变世界上可能发生的事情(移走汽车),雨就会成为你被淋湿的反事实。在这种情况下,雨水会让你湿透 1/2 的责任。我们可以想象这样的世界:10 汽车经过时,从头到脚溅湿了你。在这种不幸的情况下,我们需要改变世界的可能性 10 只有雨才能成为反事实的原因。因此,我们可以说雨对你有负面影响 1/(10 1) = 1/11 的责任。一般来说,如果我们需要改变可能的世界 n 事件可以使事件成为反事实的原因,我们说事件对结果的责任是 1/(1 n)。

实际的因果关系允许我们为不同的原因分配不同程度的责任,以便我们能够专注于最重要的原因。这对于软件工程或人工智能模型等大型系统来说非常重要,因为这些系统可能有很多“原因”。

分析人工智能系统

计算机科学家测试人工智能的主要工具之一是图像分类。给出图像,人工智能系统如何区分其内容?

假设人工智能认为图像是孔雀,为什么会做出这样的判断?人类可能会解释说,这是一只孔雀,因为它的尾巴上有蓝色和绿色的图案。乔克勒和她的同事开发的 ReX 从人工智能模型中获得类似因果解释的工具。对于人工智能模型,因果解释是指原始图片的任何部分,其大小都足以识别原始图片的内容。在孔雀图片的例子中,人工智能可能会解释说,它判断图片是孔雀的原因是根据尾巴的像素做出这样的判断,但任何较小的像素子集都会导致不确定的结果。

孔雀的图像,以及为什么它被归类为孔雀的因果解释。

ReX 通过向人工智能模型提供许多与原始图像略有不同的图像,从而从人工智能模型中获得因果解释。通过观察人工智能如何对每个稍有变化的图像进行分类,ReX 原始图像的每个像素对人工智能整体决策的影响都可以很好地估计。在实际因果关系的语言中,它考虑了附近许多不同的假设世界,以估计每个原始像素的权重。在估计了每一个像素之后,它就会选择足够多的像素,使整个图像被归类为孔雀图像。

将图片识别为孔雀最重要的像素点的热图。

因为实际因果关系是适用于任何因果系统的一般哲学框架,所以 ReX 工作不需要了解人工智能系统的内部操作。只要我们能输入信息并读取相应的输出结果,无论人工智能系统的内部结构如何,ReX 我们可以从人工智能中得到解释。正因为如此,它可以应用于我们无法直接理解的庞大或复杂的人工智能系统。

核磁共振扫描显示脑肿瘤

ReX 直接用途之一是医学成像领域。当一名疑似脑肿瘤患者接受MRI检查时,人工智能系统会通过扫描结果自动判断肿瘤是否含有。如果 AI 如果您认为扫描结果中有肿瘤,您将立即将其转移给医生。如果没有,扫描结果仍然会发送给医生,但可能需要几天时间才能发送给医生。

有了 ReX,人工智能系统可以做出反应:“肿瘤在这里!" 这样可以帮助医生更快地进行诊断。ReX 图像中没有肿瘤的原因也可以解释。由于肿瘤的颜色往往与健康组织不同,ReX 由健康组织颜色像素组成的网格可以生成,然后说:“我知道这些组织是健康的,它们之间没有肿瘤。因此,在这次脑部扫描中不可能有肿瘤。如果医生不同意,他们可以告诉人工智能更仔细地检查可疑区域,以支持医生和人工智能系统之间的对话。”

展望未来

虽然她的工作横跨哲学和计算机科学,但乔克勒坚持认为她是一个务实的人。她说:“我对我们能建造、验证和证明的东西感兴趣。”她团队的下一个重要目标是将他们的技术应用于大型语言模型,如 ChatGPT。

对于像 ChatGPT 这种语言模型存在图像分类器所没有的挑战:语言在很大程度上取决于上下文。在猫的图片中,你可以覆盖背景,但图片仍然是猫,这样你就可以从图片中找到一个小子集来代表整个图片。然而,在句子或段落中,覆盖一个 "不" 单词可能会完全颠倒整个文本的意思。因此,很难直接应用最小因果解释的概念。乔克勒说:“我们还没有这样做,但我们的团队已经有很多人了,我们对下一步的工作非常兴奋。”

作者:Justin Chen

翻译:小聪

审校:7 号机

原文链接:Explaining AI with the help of philosophy

本文来自微信公众号:微信公众号(ID:null),作者:Justin Chen

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。计算机系统网络上的所有文章都包含了本声明。

相关信息