科技讯
机器感知和你:当机器学习走得太远时会发生什么

  artificial intelligence

  小说中总有一些真实,现在是时候走在科幻反乌托邦的前面,确定机器感知能力对人类的风险。

  虽然人们长期以来一直在思考智能机器的未来,但随着人工智能(AI)和机器学习的兴起,这些问题变得更加紧迫。这些机器类似于人类的互动:它们可以帮助解决问题、创建内容,甚至进行对话。对于科幻小说和反乌托邦小说的粉丝来说,一个迫在眉睫的问题可能即将出现。如果这些机器发展出意识呢?

  研究人员于2023年12月31日在《社会计算杂志》上发表了他们对这一主题的研究。

  虽然在这次关于机器的人工感知(AS)的讨论中没有提供可量化的数据,但在人类语言发展和机器以有意义的方式发展语言所需的因素之间,有许多相似之处。

  作家兼研究员约翰·列维·马丁(John Levi Martin)说:“许多关注机器感知能力发展可能性的人担心我们使用这些机器的道德问题,或者机器作为理性的计算器,是否会为了确保自己的生存而攻击人类。”“我们这里担心的是,他们会通过过渡到一种特定的语言感知形式而获得一种自我疏远的形式。”

  使这种转变成为可能的主要特征似乎是:非结构化深度学习,例如在神经网络中(计算机分析数据和训练示例以提供更好的反馈),人类和其他机器之间的交互,以及继续自我驱动学习的广泛行动。自动驾驶汽车就是一个例子。许多形式的人工智能已经符合这些条件,这导致人们担心它们的下一步“进化”可能是什么。

  这一讨论表明,仅仅关注机器中AS的发展是不够的,还提出了一个问题,即我们是否已经为机器中出现的一种意识做好了充分的准备。现在,人工智能可以生成博客文章、诊断疾病、制作食谱、预测疾病或根据输入完美地讲述故事,想象一下,与一台了解自己存在状态的机器建立真正的联系,这已经不远了。然而,这项研究的研究人员警告说,这正是我们需要警惕我们收到的输出的时候。

  马丁说:“成为一个语言生物,更多的是为了对信息进行战略控制,并导致整体性和完整性的丧失……这不是我们希望在为我们的安全负责的设备中出现的东西。”由于我们已经让人工智能管理了如此多的信息,基本上是依靠它像人类大脑一样学习,所以以一种近乎鲁莽的方式将如此多的重要信息委托给人工智能已经成为一场危险的游戏。

  模仿人类的反应和战略性地控制信息是两件完全不同的事情。一个“语言存在”可以在他们的回应中有两面派和深思熟虑的能力。其中一个重要的因素是,我们什么时候会发现自己被机器玩弄了?

  未来的事情掌握在计算机科学家手中,因为他们开发了测试机器语言感知能力的策略或协议。使用已经发展出语言形式的感知或“自我”意识的机器背后的伦理尚未完全建立,但可以想象它将成为一个社会热点话题。自我实现的人和有知觉的机器之间的关系肯定是复杂的,这种亲属关系的未知水域肯定会带来许多关于伦理、道德和继续使用这种“自我意识”技术的概念。

  更多信息:Maurice Bokanga等人,《通过扫描仪:机器感知和语言病毒》,《社会计算杂志》(2024)。引文:机器感知和你:当机器学习走得太远时会发生什么(2024年,1月30日)检索自https://techxplore.com/news/2024-01-machine-sentience.html本文受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

点击分享到

热门推荐