千家信息网

消息称谷歌警告员工不要向生成式 AI“泄密”,也不要直接用其写代码

发表于:2024-11-24 作者:千家信息网编辑
千家信息网最后更新 2024年11月24日,感谢CTOnews.com网友 航空先生 的线索投递!CTOnews.com 6 月 15 日消息,据路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。
千家信息网最后更新 2024年11月24日消息称谷歌警告员工不要向生成式 AI“泄密”,也不要直接用其写代码
感谢CTOnews.com网友 航空先生 的线索投递!

CTOnews.com 6 月 15 日消息,据路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。

▲ 图源 Pixabay

知情人士称,谷歌母公司 Alphabet 已建议员工不要将其机密材料输入给 AI 聊天机器人,同时该公司还提醒 IT 工程师避免直接使用聊天机器人生成的计算机代码

谷歌对此回应称,其聊天机器人 Bard 可以提出不受欢迎的代码建议,但它仍然对 IT 工程师们会有所帮助。谷歌表示其目标是对生成式 AI 的技术局限性保持足够的透明度。

分析人士指出,这些担忧表明谷歌希望避免生成式 AI 对公司的商业化运作造成损害,这种谨慎的态度也体现出对生成式 AI 的使用限制正越发成为某种具有共性的企业安全标准。

CTOnews.com此前报道,包括三星、亚马逊、苹果等大型科技企业对员工使用生成式 AI 都设置了一定的限制,以确保不会对公司运营造成风险。

支持 OpenAI 的微软则拒绝评论是否已全面禁止员工将机密信息输入 ChatGPT 这样的公共 AI 应用。但微软消费者业务首席营销官 Yusuf Mehdi 曾表示,公司不希望员工使用公共聊天机器人工作是"有道理的"。

根据 Fishbowl 对包括美国顶级公司员工在内的近 12000 名受访者的调查,截至今年 1 月,约 43% 的专业人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都没有告诉他们的老板。

0