人工智能(AI)的飞速发展也带来了潜在的风险,包括抄袭、蚕食工作、数据泄露、数据泄露、幻觉和数据隐私。
当你和Alexa这样的聊天机器人交谈时,或者是非常著名的微软支持的OpenAI的ChatGPT,谁在听你说话?
由于员工使用第三方软件的合规问题,多家公司对病毒式人工智能聊天机器人ChatGPT进行了打击。ChatGPT率先拉开了大型科技公司的人工智能军备竞赛。
OpenAI上个月早些时候通知说,他们不得不在3月20日将ChatGPT下线,因为AI开始泄露其他人的交易细节,并允许其他人从其他用户的聊天历史中查看主题行。
OpenAI在一篇博客文章中表示,这个现已修复的漏洞还使“一些用户可以看到另一个活跃用户的姓和名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期日期”成为可能。
继ChatGPT之后,谷歌和微软也推出了工作方式相同的人工智能工具,这些工具由基于大量在线数据训练的大型语言模型提供支持。
最近三星员工关于人工智能聊天机器人的数据泄露,意大利以数据隐私问题为由实施了临时禁令,这真的让人想知道,当我向人工智能开放时,我的数据存储在哪里?
波士顿咨询集团首席人工智能道德官史蒂夫·米尔斯在接受CNN采访时表示,大多数公司对这些工具最大的隐私担忧是“无意中泄露敏感信息”。
米尔斯补充说,如果人们输入的数据被用于进一步训练这些人工智能工具,就像这些工具背后的许多公司所说的那样,那么你就“失去了对这些数据的控制,而其他人掌握了这些数据”
米尔斯说:“你让所有的员工做一些看起来非常无伤大雅的事情,比如,‘哦,我可以用这个来总结会议笔记。’”“但把会议笔记粘贴到提示符中,你可能会突然泄露一大堆敏感信息。”米尔斯向CNN解释道
ChatGPT背后的微软支持公司OpenAI在其隐私政策中表示,它从使用其服务的人那里收集各种个人信息。
该公司表示,它可能会使用这些信息来改进或分析其服务,进行研究,与用户沟通,以及开发新的程序和服务等。
隐私政策规定,除非法律要求,它可以在不另行通知用户的情况下向第三方提供个人信息。
OpenAI周三还发表了一篇新的博客文章,概述了其人工智能安全的方法。“我们不使用数据来销售我们的服务,做广告,或者建立人们的档案——我们使用数据来让我们的模型对人们更有帮助,”该博客写道。“例如,ChatGPT通过进一步训练人们与它的对话来改进。”
谷歌的隐私政策,包括它的Bard工具,同样是冗长的,它还为其生成式人工智能用户提供了额外的服务条款。该公司表示,为了在保护用户隐私的同时帮助改进Bard,“我们选择了一部分对话,并使用自动化工具帮助删除个人身份信息。”
谷歌还告诉CNN,用户可以“轻松选择使用Bard,而无需将对话保存到谷歌账户。”巴德用户还可以通过这个链接查看他们的提示或删除巴德对话。谷歌表示:“我们还设置了护栏,旨在防止巴德在回复中包含个人身份信息。”
点击分享到









