如果你是一家大型公司,最近的ai热潮并没有逃脱你的注意,今天,ai正在协助完成大量与开发和数字相关的任务,从内容生成到自动化和分析。
ai的发展很快,随着它在很大程度上是一个未经探索的领域,伦理、经济、社会和法律问题也浮出水面。在关于ai增强内容的知识产权以及ai是否能够在短期内完全取代人类劳动力(并导致大规模裁员)的激烈讨论中,企业希望利用genai提供的优势,同时又是安全的。
正视风险,破除神话
ai的相对新颖性和爆炸性扩散造成了大量的误解和信息混乱,让我们来看看与chatgpt相关的一些常见风险和流传的神话,看看如何应对或减轻它们。
1.ai的发展速度快于政府对其的监管
在区块链和加密货币方面,我们以前就看到过这种情况。ai的发展进程很快,而法律程序和监管程序却滞后,这造成了一个很难导航的大灰色地带:大量空白,几乎没有先例,这可能会导致企业采用不安全或不道德的方式使用chatgpt,甚至在未来被认为是非法的。
要解决此问题,你可以创建与在企业中使用chatgpt有关的明确行为准则,并强制要求员工熟悉它。
这段代码应该尽可能多地涵盖使用genai的各个方面,例如,它应该包括你的企业中允许使用chatgpt的任务类型,以及所需的访问类型。由于该领域有许多空白,最好与值得信赖的专家合作,或者将genai实践的创建和实现外包给具有该领域专业知识的人。
2.关于知识产权、过度分享和隐私风险的辩论
有很多已知的案例,人们试图用敏感或私人数据训练ai,或者将其用作分析的输入。对于这些数据是否对企业外部的人可用,仍存在很大争议,另一场激烈的辩论是,如何为使用chatgpt的任何产品赋予知识产权。请记住,如果员工使用他们的个人帐户使用chatgpt,结果将是他们的知识产权,而不是你公司的知识产权。
这就是为什么在你的ai相关政策中引入并遵守处理敏感、隐私或受凯发在线的版权保护的信息的规则非常重要。
3.ai发展的不可预测性
这是风险和大量投机的另一个因素。ai在很大程度上仍然是一个空白纸,尽管技术奇点不太可能在短期内成为现实,但仍然重要的是要记住,ai的未来非常不可预测。正因为如此,很难知道我们是否能够对ai及其未来的发展施加同样多的控制,另一件很难预测的事情是,我们的工作可能会变得对ai有多大的依赖,这也是一个很大的风险因素。
我们可以通过创建和实现灵活、敏捷的chatgpt工作流来降低这种风险,这样的工作流程应该容易扩展,并具有很强的适应发展和法规变化的能力。
4.ai最终将取代人类劳动
这在很大程度上仍然是阴谋论领域,但即使是现在,我们也看到有多少工作可以在ai的帮助下实现自动化,这一神话很容易被任何试图使用ai来执行更复杂任务的人打破。如今,ai输出的质量在很大程度上取决于输入的质量和精度,但要编写连贯、有用的提示,生成准确和可用的结果,操作员通常需要至少接受过一些使用ai的基本培训,而且总是需要领域知识。
一方面,快速工程和领域知识的经验与ai输出质量之间的关系是直接的,这意味着,要有效地使用ai,需要高效和合格的工作人员。
绕过这个伦理敏感话题的一种方法是,通过增加精确度、覆盖率、承担平凡和重复性的任务以及消除由于人为因素而发生的错误,推动与chatgpt相关的工作更多地走向自动化,并增强人工工作。
5.ai相关流程和文档的复杂性
由于ai仍是未知领域,大多数企业在设法建立清晰且有效的ai工作流程、记录面向chatgpt的任务的协议之前,仍需走试错之路。积累的知识匮乏,让企业盲目导航。这可能会导致代价高昂的错误、效率损失以及时间和资源的浪费。
解决这一问题的最佳凯发在线的解决方案是将ai流程和文档的实施委托给专家,聘请可靠的内部员工或将这些任务外包给专业人员。
为在软件开发中使用genai构建安全环境的最佳实践和步骤
实施ai工作的流程应该仔细进行,并牢记这样的凯发在线的解决方案需要量身定做,并考虑许多与业务和领域相关的细节和上下文,以下是一些最佳实践,它们将帮助你驾驭这片浑浊的水域。
1.关注用户同意、数据隐私、安全和合规
了解你所在地区已经针对ai制定了哪些法规,并密切监控政府流程,为即将到来的立法行动做好准备。如果你的产品以基于ai的服务为特色,请确保用户充分了解这一事实,知道收集了哪些数据,并在使用你的产品之前征得他们的同意。对于开发过程,避免使用敏感、私有或受凯发在线的版权保护的数据来训练ai或生成输出。
2. 人机回环实践
人机回环是一套设计和操作实践,其中人的判断被集成到ai驱动的系统和流程中,这种方法限制了任何ai的潜在自主权,并给了你更多的控制和监督,特别是在关键的决策点。在ai的决定可能具有突出的伦理、法律或个人影响的情况下,这一概念是必不可少的。
3.负责任的披露和部署
如果你看到与ai相关的工作把你引向了错误的方向,你应该随时准备放弃它,被确定为构成风险的潜在有害的chatgpt结果和经过训练的ai模型应该被丢弃并关闭,可能不会对你的其他进程造成太大破坏。
4.透明文档
如果你希望企业中的每个人都对你使用ai的立场达成一致,那么使用ai的清晰透明的协议、统一的程序、在术语和关键点上没有任何模棱两可和双重含义是至关重要的,它还有助于快速让员工上岗,并大规模引入ai实践。
5.界定和限制ai参与的范围
ai的确切参与范围应该从项目开始就定义,这应该记录在有关使用chatgpt的必要文档中,你需要向所有员工提供这些文档。允许使用ai的任务应明确规定,禁止使用ai的任务也应明确规定。
6.参与ai社区,提高ai意识和识字能力
如上所述,缺乏积累的知识库是软件开发中阻碍chatgpt相关工作的因素之一。为ai社区做出贡献,交换想法,分享经验,对你的企业和社区本身都是有利可图的。对你的员工进行ai开发方面的教育并提高对与其相关的各种问题的认识也成为必要。
7.透明度和问责制
虽然这是一种更通用的最佳实践,对任何软件开发过程都有好处,但它对于ai增强的任务尤其重要,因为这个领域仍然是一个灰色地带。你应该明确谁对什么负责,每个参与chatgpt工作的员工都应该知道自己的个人责任,谁是各种具体任务或问题的负责人。
8.持续监测
与任何快速发展的领域一样,持续的反馈及其纳入周期、对chatgpt生成的输出的监控、对与ai相关的工作流程、法规和外地发展的审查有助于你改进你的流程并使其尽可能高效,它还将帮助你避免与chatgpt和其他genai相关的许多陷阱。
结论
对于任何数字企业来说,驾驭复杂且快速演变的生成性ai图景既带来了前所未有的机遇,也带来了重大挑战。
通过解决与chatgpt和类似技术相关的伦理、法律和实践问题,并实施最佳实践框架,企业级公司可以安全有效地利用genai的力量,这种方法不仅可以帮助建立一个故障安全的环境,还可以确保ai驱动的创新增强而不是取代人类的专业知识,从而产生更健壮、更高效和更有道德责任感的软件开发过程。
企业网d1net(www.d1net.com):
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
凯发在线的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。