科技讯
研究人员称,人工智能伦理忽视了儿童

  children

  牛津大学牛津马丁伦理网络和数据架构项目(EWADA)的研究人员呼吁,在为儿童开发和治理人工智能时,应该采取一种更深思熟虑的方法。

  在《自然机器智能》(Nature Machine Intelligence)杂志上发表的一篇观点论文中,作者强调,尽管关于高水平人工智能伦理原则应该是什么样子的共识越来越多,但对于如何在原则上有效地将它们应用于儿童,人们知之甚少。该研究绘制了现有人工智能伦理准则的全球格局,并确定了在调整这些原则以造福儿童方面面临的四大挑战:

  缺乏信心考虑儿童的发展方面,特别是儿童的复杂和个性化的需求,年龄范围,发展阶段,背景和性格。

  最小的公司考虑儿童时期监护人(如父母)的作用。例如,父母经常被描绘成有当数字世界可能需要反思这一传统时,G的体验优于儿童父母的角色。

  太少以儿童为中心的教育估值了解儿童的最大利益和权利。在评估人工智能系统的安全和保障等问题时,定量评估是常态,但在人工智能系统中,定量评估往往不足考虑到儿童的发展需要和长期福祉等因素。

  缺乏协调的、跨部门的、跨学科的方法来为儿童制定道德人工智能原则,而这些原则是实现有效实践变革所必需的。

  在确定这些挑战时,研究人员还借鉴了现实生活中的例子和经历。他们发现,尽管人工智能被用来保护儿童的安全,通常是通过识别网上不适当的内容,但一直缺乏将保护原则纳入人工智能创新的举措,包括那些由大型语言模型(llm)支持的创新。这种整合对于防止儿童接触到基于种族等因素的有偏见的内容或有害的内容,特别是对弱势群体而言,是至关重要的,而且对这种方法的评价应超越诸如准确性或精确性之类的定量指标。

  通过与布里斯托尔大学的合作,研究人员还设计了一些工具来帮助患有多动症的儿童,仔细考虑他们的需求,并设计界面,以支持他们与人工智能相关算法共享数据,这些方法与他们的日常路线、数字读写技能和简单有效的界面需求相一致。

  为了应对这些挑战,研究人员建议:

  增加主要利益攸关方的参与,包括父母和监护人、人工智能开发者和儿童本身;

  为人工智能系统的行业设计师和开发者提供更直接的支持,特别是让他们更多地参与人工智能伦理原则的实施;

  建立法律和专业以儿童为中心的Nal问责机制;和

  在人机交互、设计、算法、政策指导、数据保护法和教育等领域,围绕以儿童为中心的方法加强多学科合作。

  牛津大学马丁研究员、该大学计算机科学系高级研究员、该论文的主要作者赵军博士说:“人工智能在儿童生活和我们社会中的结合是不可避免的。虽然关于谁应该确保技术是负责任的和合乎道德的争论越来越多,但这种负担的很大一部分落在了父母和孩子身上,他们要在这个复杂的环境中导航。

  这篇前瞻性文章审视了现有的全球人工智能伦理原则,并确定了关键差距和未来发展方向。这些见解对于指导我们的行业和政策制定者至关重要。我们希望这项研究将成为跨部门合作的重要起点,为儿童创造合乎道德的人工智能技术,并在这一领域制定全球政策。”

  作者概述了几条人工智能伦理原则,这些原则特别需要考虑到儿童。它们包括确保公平、平等和包容的数字访问,在开发人工智能系统时提供透明度和问责制,保护隐私并防止操纵和利用,保障儿童的安全,以及在积极让儿童参与其发展的同时创建适合年龄的系统。

  研究报告的合著者、EWADA项目主任、牛津大学耶稣学院校长、计算机科学系计算机科学教授Nigel Shadbolt教授表示:“在人工智能驱动算法的时代,儿童应该得到满足他们社交、情感和认知需求的系统。我们的人工智能系统在发展的各个阶段都必须遵守道德和尊重,但这在儿童时期尤为重要。”

  更多信息:将道德人工智能原则转化为儿童实践的挑战和机遇,自然机器智能(2024)。DOI: 10.1038/s42256-024-00805-x, www.nature.com/articles/s42256-024-00805-x期刊信息:自然机器智能由牛津大学提供引文:人工智能伦理正在忽视儿童,研究人员说(2024年,3月20日)从https://techxplore.com/news/2024-03-ai-ethics-children.html检索2024年3月20日本文档受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

点击分享到

热门推荐