站长之家(ChinaZ.com) 6月16日消息:谷歌是人工智能的主要支持者之一,但同时警告员工谨慎使用聊天机器人。
据四名知情人士告诉路透社,谷歌母公司 Alphabet 已经向员工发出警告,不要将机密资料输入到 AI 聊天机器人中,该公司确认此举是基于长期保护信息的政策。
这些聊天机器人包括 Bard 和 ChatGPT,它们是使用所谓的生成式人工智能来与用户进行对话并回答各种提示的具有人类自然语言的程序。人类审核员可能会阅读这些对话,研究人员发现类似的 AI 可以复制其在训练过程中吸收的数据,从而产生泄漏风险。
(相关资料图)
Alphabet 还提醒工程师避免直接使用聊天机器人生成的计算机代码。谷歌表示 Bard 可能会提供不受欢迎的代码建议,但仍对程序员有所帮助。谷歌还表示,它的目标是对其技术的局限性保持透明。
这些担忧显示了谷歌希望避免与 ChatGPT 竞争中的软件给业务带来的损害。谷歌与 ChatGPT 的支持者 OpenAI 和微软公司之间的竞争涉及数十亿美元的投资,以及尚未透露的来自新型人工智能程序的广告和云收入。
谷歌的谨慎态度也反映了成为安全标准的企业行为,即警告员工不要使用公开可用的聊天程序。
世界各地越来越多的企业都在设置 AI 聊天机器人的保护措施,其中包括三星、亚马逊和德意志银行。
据网络社交平台 Fishbowl 进行的一项调查显示,截至今年 1 月,43% 的专业人士使用 ChatGPT 或其他 AI 工具,通常不会告诉他们的上司。
根据 Insider 的报道,今年 2 月,谷歌告诉员工在 Bard 发布之前不要向其提供内部信息。现在,谷歌正在向 180 多个国家和地区以及 40 种语言推出 Bard 作为创造力的跳板,其警告也延伸到其代码建议。
谷歌告诉路透社,该公司已与爱尔兰数据保护委员会进行了详细对话,并正在回答监管机构的问题。根据 Politico 本周的一份报道,谷歌将推迟 Bard 本周在欧盟的发布,等待有关聊天机器人对隐私影响的更多信息。
这种技术可以起草电子邮件、文件,甚至软件本身,承诺大大加快任务完成速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是《哈利·波特》小说中的版权段落。
谷歌在 6 月 1 日更新的隐私声明中还指出:「在 Bard 的对话中不要包含机密或敏感信息。」
一些公司已经开发了软件来解决这些问题。例如,Cloudflare 是一家提供网络安全防护和其他云服务的公司,它正在推销一项可以标记和限制部分数据流向外部的能力。
谷歌和微软也为企业客户提供了对话工具,价格更高,但不会将数据吸收到公共 AI 模型中。Bard 和 ChatGPT 的默认设置是保存用户的对话历史记录,用户可以选择删除这些记录。
微软的首席营销官 Yusuf Mehdi 表示:「公司对员工在工作中使用公共聊天机器人持谨慎态度是有道理的。」他解释了微软免费的必应聊天机器人与其企业软件之间的差异。他说:「在企业软件中,我们的政策要严格得多。」微软拒绝就员工是否全面禁止在公共 AI 程序中输入机密信息发表评论,但该公司的另一位高管告诉路透社,他个人限制了自己的使用。
Cloudflare 的首席执行官 Matthew Prince 表示,将机密事项输入聊天机器人就像是「让一群博士生翻阅你所有的私人记录」。
(举报)
Copyright © 2015-2022 南非健康网版权所有 备案号:沪ICP备2022005074号-13 联系邮箱:58 55 97 3@qq.com