寒冷的机器会领有自我看法吗 最新的钻研提醒了这是如何发作的

科技 2023-05-08 07:21:59 浏览
寒冷的机器会领有自我看法吗

当今环球正处于人工智能的高速开展阶段,咱们的生活变得越来越依赖于机器。但是,咱们能否真歪了解了机器是如何任务的?关于机器的“外部任务原理”,咱们能否真正有一个深入的看法?这是一个令人匪夷所思的话题,由于它不只仅是关乎咱们如何经常使用机器,还关乎到咱们如何了解人类自身。明天,咱们将深化的了解这些寒冷的机器,能否领有与咱们人类一样的自我看法,以及经过构建模拟人类才干的机器,来更好地了解咱们自己的或者性。让咱们一同进入这个巧妙的环球,探求机器和人类的微妙!

最新的钻研提醒了这是如何发作的

首先,从哲学的角度来看,让人工智能变得幽默的缘由主要在于它能够模拟人类的行为,例如对话、业余考试以及生成美丽的图像。虽然曾经取得了许多停顿,但咱们依然面临着一个疑问:如何让机用具备自我看法或看法到其他人的存在?什么是看法?这些概念都是哲学上的难题,尚未失去彻底解答。虽然对这些现象有许多相互竞争的哲学形容,但是它们都推戴机械解释。在第16届斯德哥尔摩人工智能会议上的一系列论文中,许多学者提出了关于这些现象的机械解释,解释了如何构建一台能够感知自己、他人以及万物所感知的自我的机器。

但是,许多咱们称之为“智能”的物品可以简化为在信息不完整的状况下对环球做出预测。机器做出准确预测所需的信息越少,它就显得越“智能”。可是,关于任何给定的义务,必需多少有用的智能是有限度的。例如,大少数成年人都足够痴呆,可以学习如何驾驶汽车,但更高的智力或者不会让他们成为更好的司机。在一篇论文形容了给定义务的智能下限以及构建到达该下限的机器所需的条件。并且将这个想法命名为贝内特剃刀,用非技术术语来说,意思是“解释不应该比必要的更详细”。这不同于对奥卡姆剃刀(及其数学公式)的盛行解释,后者偏差于更简略的解释。差异很巧妙但很重要。在一项比拟人工智能系统学习基础数学必需多少数据的试验中,偏好不太详细解释的人工智能比偏好简略解释的人工智能高出500%。

例如,许多语音助手,如 Siri 或 Alexa,旨在依据不完整的信息(例如行动命令或搜查查问)预测用户的需求。他们的预测越准确,他们就显得越“痴呆”。但是,他们可以执行的义务遭到他们的编程和他们可以访问的数据量的限度。雷同,智能驾驶汽车旨在依据有限的传感器数据实时预测环境。他们的预测越准确,他们就显得越安保、越“智能”,但他们的才干遭到可用技术的限度。

探求这一发现的含意使咱们对意义启动了机械解释——被称为“协作规定”。这是言语哲学中的一个概念,并重于意义和用意之间的关系。为了生活,生物必需预测它们的环境(包含其余生物)将如何执行和反响。在社区中变得痴呆象征着能够推断出他人的用意,这些用意来自于他们的感触和偏好。假设机器要到达依赖与人类交互的义务的智能极限,那么它还必需能够正确推断用意。假设一台机器可以将用意归因于发作在它身上的事情和教训,这就会引发身份疑问以及了解自己和他人象征着什么。你们感觉寒冷的机器会领有自我看法吗?在评论区留言,关注咱们,下期再见。

本文版权声明本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站客服,一经查实,本站将立刻删除。