gartner法律与合规实践部门高级主管分析师ron friedmann表示,“chatgpt和其他大型语言模型(llm)工具生成的输出容易存在一些风险。法律和合规领导者应该评估这些问题是否对企业构成重大风险,以及在企业内部及其扩展的第三方企业中需要采取哪些控制措施。如果不这样做,企业可能会面临法律、声誉和财务方面的后果。”
法律和合规负责人应该评估的六个chatgpt风险包括:
1. 捏造的和不准确的答案
也许chatgpt和其他llm工具最常见的问题是倾向于提供不正确的信息(尽管表面上看似合理)。
friedmann称,“chatgpt也容易产生‘幻觉’,包括捏造错误的答案,以及不存在的法律或科学引用。法律和合规领导者应该发布指导,要求员工在接受chatgpt生成的任何输出之前,审查其准确性、适当性和有效性。”
2. 数据隐私及保密
法律和合规负责人应该意识到,如果聊天历史没有被禁用,输入chatgpt的任何信息都可能成为其训练数据集的一部分。
friedmann解释称,“在提示中使用的敏感、专有或机密信息都可能会被纳入企业外用户的回复中。法律和合规部门需要为chatgpt的使用建立一个合规框架,并明确禁止将敏感的企业或个人数据输入公共llm工具。”
3. 模型和输出偏见
尽管openai努力减少chatgpt中的偏见和歧视,但已知的这些问题已经发生,并且可能会持续存在,尽管openai和其他企业正在积极努力地将这些风险降到最低。
friedmann认为,“完全消除偏见几乎是不可能的,法律和合规需要凌驾于管理人工智能偏见的法律之上,并确保他们的指导是合规的。这可能涉及与主题专家合作,以确保输出的可靠性,并与审计和技术部门合作,以设置数据质量控制。”
4. 知识产权(ip)和凯发在线的版权风险
考虑到chatgpt是在大量的互联网数据上训练的,这些数据可能包括受凯发在线的版权保护的信息。因此,它的输出有可能违反凯发在线的版权或知识产权保护法案。
friedmann称,“chatgpt不提供源代码参考或解释其输出是如何生成的。法律和合规负责人应该密切关注适用于chatgpt输出的凯发在线的版权法的任何变化,并要求用户仔细检查他们生成的任何输出,以确保它不侵犯凯发在线的版权或知识产权。”
5. 网络欺诈风险
恶意行为者已经在大规模地滥用chatgpt来生成虚假信息,例如,虚假评论。
此外,使用llm模型的应用程序,包括chatgpt,也容易受到提示注入的影响,这是一种黑客技术,使用恶意的对抗性提示来欺骗模型执行它不打算执行的任务,例如编写恶意软件代码或开发假冒知名网站的网络钓鱼网站。
friedmann补充道,“法律和合规负责人应与网络风险所有者协调,探讨是否或何时就这一问题向公司网络安全人员发出备忘录。他们还应该对尽职调查来源进行审计,以核实其信息的质量。”
6. 消费者保护风险
未能向消费者披露chatgpt使用情况的企业(例如,以客户支持聊天机器人的形式)可能面临失去客户信任的风险,并在不同法律下被指控为“不公平”的做法。
例如,加州的聊天机器人法规定,在某些消费者互动中,企业必须清楚而明显地披露消费者正在与机器人进行交流。
friedmann总结道,“法律和合规负责人需要确保他们企业的chatgpt使用符合所有相关法规和法律,并向客户进行适当的披露。”
关于企业网d1net(www.d1net.com):
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)
凯发在线的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。