随着企业变得更加数据驱动,古老的计算谚语垃圾输入,垃圾输出(gigo)从未像现在这样正确。将ai应用于许多业务流程只会加速确保所用数据的准确性和及时性的需要,无论是内部生成的数据还是外部来源的数据。
不良数据的代价
gartner估计,企业因使用质量不佳的数据而平均每年损失1290万美元。ibm计算出,糟糕的数据每年给美国经济造成的损失超过3万亿美元,其中大部分费用涉及企业内部在数据通过和跨部门传递时检查和更正数据的工作。ibm认为,知识工作者有一半的时间被浪费在这些活动上。
除了这些内部成本外,客户、监管机构和供应商之间的声誉损害也是一个更大的问题,这些问题来自基于不良或误导性数据而行为不当的组织。《体育画报》及其ceo最近发现了这一点,当时该杂志被披露发表了由虚假作者撰写的文章,并使用ai生成的图像。虽然ceo丢掉了工作,但母公司arena group的市值损失了20%。也有几起备受瞩目的律师事务所通过提交虚假的ai生成的案件作为法律纠纷中优先地位的证据而陷入困境。
ai黑匣子
尽管成本高昂,但检查和更正企业决策和业务运营中使用的数据已成为大多数企业的既定做法,然而,考虑到幻觉的发生率越来越高,了解一些大型语言模型(llm)是如何训练的,以及关于哪些数据和输出是否可信,则是另一回事。例如,在澳大利亚,一位当选的地区市长威胁要起诉openai,因为该公司的chatgpt虚假地声称,他曾因贿赂而入狱,而事实上,他一直是犯罪活动的举报人。
对llm进行可信数据培训,并采用迭代查询、检索增强生成或推理等方法,是显著减少幻觉危险的好方法,但不能保证它们不会发生。
关于合成数据的培训
随着企业通过部署ai系统寻求竞争优势,回报可能会流向那些能够获得足够和相关的专有数据来训练他们的模型的人,但是,无法获得这些数据的大多数企业怎么办?研究人员预测,如果目前的趋势继续下去,用于训练llm模型的高质量文本数据将在2026年前耗尽。
解决这个迫在眉睫的问题的一个办法是增加对合成训练数据的使用。gartner估计,到2030年,ai模型中合成数据将超过真实数据的使用,然而,回到gigo的警告,过度依赖合成数据可能会加速产出不准确和决策失误的危险。此类数据只能与创建它的模型一样好。数据混乱可能会带来更长期的危险,因为ai模型是在不符合标准的合成数据上进行训练的,这些数据产生的输出然后被反馈到后来的模型中。
谨慎行事
ai精灵已经从瓶子里出来了,虽然一些过于热情的技术供应商和咨询公司承诺的广泛的数字革命需要更多时间才能发生,但ai将继续以我们尚无法想象的方式改变商业,然而,访问企业所需规模的可靠和可信数据已经成为cio和其他企业领导人必须在为时已晚之前找到补救方法的瓶颈。
企业网d1net(www.d1net.com):
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
凯发在线的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。