生活
透视论文探讨了关于感知机器的争论

  robot

  新泽西理工学院的一名研究人员发表了一篇透视论文,研究了感知及其在人工智能(AI)和机器人技术中的应用。Sentience描述的是感知和感觉的能力,它的意思来自拉丁语sen整个,意思是“感觉”。这篇论文讨论了在关于有感知能力的机器的辩论中,一系列意识形态的承诺。作者认为,人工感知既是必要的,也是不可能的。

  这篇透视论文发表在《社会计算杂志》上。

  “我认为,这些意识形态的承诺,我称之为理想,创造了一种情况,在这种情况下,人工感知既是必要的,又是不可能的。为了更好地理解这种僵局,我查看了历史和当代关于人工感知的论述,以便明确辩论的意识形态背景,”新泽西理工学院(New Jersey Institute of Technology)大学讲师丹尼尔·埃斯特拉达(Daniel Estrada)说。

  理想主义是一个意识形态框架,它隐含地构建了关于人工感知、人工智能和思维机器的话语。

  为了描述这个框架,埃斯特拉达回顾了在古代、早期现代和20世纪哲学中出现的关于感知的历史话语。他特别关注这些理想是如何投射到人工代理上的。在人工智能中,代理是计算机程序或系统,它们感知环境,然后采取行动来完成某些目标。

  埃斯特拉达首先考察了知觉作为一种古老的传统,用来区分植物和动物。感觉是感觉的能力。所以有知觉的生物对世界的变化很敏感。

  一些研究人员在尽可能广泛的意义上对环境变化应用敏感性。他们的定义可能包括整个宇宙,每一个分子和粒子都以某种方式与环境发生反应。然而,大多数研究人员以更严格的方式使用感知这个词。因此,关于感知的争论集中在如何设置限制和在定义中划定界限上。

  埃斯特拉达认为,这些理想之间的紧张关系导致了意识形态危机,因为人工感知既是必要的,也是不可能的。渡过这场危机并不意味着在各种相互竞争的理想之间达成了令人满意的解决方案。相反,它要求研究人员将注意力转移到这些理想运作的物质条件和实际实践上。

  埃斯特拉达追随哲学家查尔斯·米尔斯(Charles Mills),对人工智能和人工感知提出了一种非理想的方法,对话语的意识形态有更宽松的控制。埃斯特拉达提出了一种参与的想法,这种想法减少了人工智能中的感知话语,并将焦点转移到社会技术网络运行的物质条件上。

  从某种客观意义上说,人工感知从来都不是科学家可以追求的稳定目标,例如,科学家可能会尝试登陆月球或治愈癌症。相反,关于人工感知的论述看起来更像是一条没有尽头的走廊,或者是一根大棒上的胡萝卜,目标总是在地平线上。

  正如埃斯特拉达解释的那样,如果科学家们能够以某种方式调整这场辩论的门柱,使之符合前几代人的理想,那么在过去的50年里,可能会出现几十个登月规模的技术成就事件。这些可能很容易让亚里士多德、笛卡尔甚至图灵相信,人工制品已经具有了感知能力。

  简而言之,人工智能的前景不太取决于人工制品能做什么,而更多地取决于我们对它们的看法。这就是我们的理想。”

  展望未来,埃斯特拉达认为本文只是开始解释人工智能话语的意识形态结构。他希望扩大讨论范围,以涵盖其他重要领域。例如,埃斯特拉达想谈谈20世纪的语言哲学问题,以及这些问题如何影响当前关于像chatGPT这样的聊天机器人是否能够“理解”语言的争论。

  埃斯特拉达说:“填写这张图片将有助于对这些重要问题的持续辩论。”

  更多信息:Daniel Estrada, AIdeal: Sentience and Ideology, Journal of Social Computing(2024)。引文:透视论文探讨了关于感知机器的争论(2024年,1月31日)检索自2024年2月2日https://techxplore.com/news/2024-01-perspective-paper-explores-debate-sentient.html此文档受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

点击分享到

热门推荐