当前位置:人工智能行业动态 → 正文

cio如何解决实施ai过程中面临的伦理问题 -凯发在线

责任编辑:cres 作者:esther shein |来源:企业网d1net  2023-12-12 11:20:24 原创文章 企业网d1net

ai几乎满足了几乎每个行业组织的胃口。随着ai试点转向实际应用,关于道德ai必要性的讨论也在增加,同时也出现了“公平”、“隐私”、“透明”、“责任”和最大的术语——“偏见”。
 
随着ai成为人们工作和开展业务的不可或缺的一部分,确保这些措施和其他措施得到考虑是cio们将努力应对的一项艰巨任务。
 
对于许多cio来说,实施可能还处于萌芽阶段,但减轻ai模型中的偏见并平衡创新与伦理考虑已经是他们面临的最大挑战之一,他们发现,在技术进步和确保ai不会导致有害结果之间的界限很窄。
 
全球咨询企业egon zehnder服务和ai实践小组成员christoph wollersheim指出了大多数企业在实施ai时需要关注的五个关键领域:准确性、偏见、安全、透明度和社会责任。
 
wollersheim最近与人合著了《董事会成员监督ai指南》一书,他说,不幸的是,用ai实现100%的准确率是不可能的。“真正的伦理问题在于企业如何防范错误信息。如果向客户提供虚假数据,或者如果关键决策基于不准确的ai响应,该怎么办?企业的回应既需要一个切实可行的计划,也需要一个透明的沟通策略。”
 
他指出,当ai根据历史数据进行训练时,偏见可能会在不经意间持续存在。
 
“执行管理层和董事会都必须确保公平使用ai,并防止歧视。”他说,纠正偏见的研究正在进行中,使用合成数据来处理性别、种族和民族等属性,“但总有必要应用以人为中心的原则。”
 
wollersheim说,保护敏感信息的需要对于符合道德的ai部署来说是至关重要的,因为ai对数据的严重依赖增加了入侵和未经授权访问的风险。“企业必须加强防御,防止可能误导ai模型并导致决策失误的攻击。确保敏感信息的安全对于道德上的ai部署是至关重要的。“他说。
 
至于透明度,这不仅仅与算法有关,还与建立信任有关,他说,“利益相关者需要理解ai是如何做出决策和处理数据的。一个透明的ai框架是道德使用、问责和维护信任的关键。”
 
企业还必须考虑指导他们的价值观,以及他们在再培训、技能提升和工作保护方面的义务。wollersheim说:“道德ai是关于为我们的劳动力塑造一个负责任的未来。”
 
wollersheim说,为了解决这些问题,建立一个ai审查委员会和实施一个道德的ai框架是至关重要的。“一个道德的ai框架为每个项目的监测和批准提供了明确的指导,无论是内部的还是外部的。由技术和商业专家组成的ai审查委员会确保伦理考虑处于决策的前沿。”
 
以下是cio如何在其企业中解决道德ai的问题。
 
让道德ai成为一项团队运动
 
plexusworldwide是一家使用ai来识别欺诈性账户创建和交易的企业,这家市值5亿美元的全球健康和健康企业的cio兼首席技术官艾伦·麦金托什说。麦金托什认为,偏见从根本上说是一个数据问题。“我们试图通过利用和验证多个完整的数据源来消除偏见和不正确的结果。”他说。
 
麦金托什说,plexusit还处于在企业的电子商务平台中使用ai的分析阶段,“以获得更好的见解,以预测和优化客户体验,并增强个性化。我们还看到了自动化的机会,可以消除许多传统的人工和重复性任务。”
 
他说,为了确保遵守符合道德的ai实践,plexusworldwide组建了一个由it、法律和人力资源代表组成的团队,负责ai治理和政策的发展和演变,该团队确定了企业的风险容忍度、可接受的用例和限制以及适用的披露。
 
麦金托什说,即使有一个专注于ai的团队,识别风险并了解组织打算如何在内部和公开使用ai也是具有挑战性的。他说,团队成员还必须理解并解决ai偏见、错误声明和不正确结果的内在可能性。“根据用例的不同,你的企业和品牌的声誉可能会受到威胁,因此你必须规划有效的治理。”
 
考虑到这一点,麦金托什说,cio们“不要急于冲到终点线”是至关重要的。在实施和公开技术之前,企业必须创建一个全面的计划,并专注于开发治理框架和ai政策。麦金托什表示,确定合适的利益相关者,如法律、人力资源、合规和隐私以及it,是plexus开始其道德ai过程的地方。
 
“然后我们制定了一份政策草案,概述了角色和责任、范围、背景、可接受的使用指南、风险容忍度和管理以及治理,”他说,“我们继续迭代和演变我们的政策,但它仍在发展中。我们打算在2024年第一季度实施该计划。”
 
麦金托什建议寻找第三方资源和主题专业知识。麦金托什解释说:“它将极大地帮助加快你的计划和框架的开发和执行,并且,根据你当前的计划管理实践,为你的ai采用计划提供相同级别或更高级别的严格要求。”
 
脚步缓慢,这样ai就不会“失控”
 
cio matt richard表示,代表50多万建筑工人、公共雇员和邮件处理员的北美劳工国际联盟(liuna)已经尝试使用ai,主要是为了文件的准确性和澄清,以及撰写合同。
 
他说,随着liuna在2024年扩大ai用例,“这就产生了一个问题,那就是我们如何在伦理上使用ai。”该组织已经开始试行google duet,将撰写和谈判承包商协议的过程自动化。
 
richard说,目前,工会官员没有使用ai来识别成员的想要和需求,也没有梳理可能敏感的招聘数据,并根据模特的培训方式对人们产生偏见。
 
“这些都是我感到紧张的地方:当一个模特告诉我一个人的时候,我觉得我们还没有准备好进入这个领域,因为坦率地说,我不相信受过公共培训的模特能让我洞察我想聘用的人。”
 
尽管如此,richard预计liuna仍将经历一次“自然进化”,即未来liuna可能希望利用ai来获得对其成员的洞察,以帮助工会为他们带来更好的利益。他说,就目前而言,“我们希望如何做到这一点,这仍然是一个灰色地带。”
 
richard说,该工会还在努力增加其会员人数,其中一部分意味着使用ai来有效地识别潜在成员,“而不是识别相同的同质性人。我们的组织非常努力,在赋予少数族裔和女性权力方面做得很好,我们希望发展这些群体。”
 
这就是richard担心ai模型如何使用的地方,因为避免“寻找相同的刻板印象人口的兔子洞”并引入偏见意味着人类必须成为这一过程的一部分。“你不能让模特做所有的工作,”他说,“你知道你今天所处的位置,然后我们停下来说,‘好吧,人类需要介入,看看模型告诉我们什么。’”
 
“你不能让ai横冲直撞,…没有任何干预。”他补充说,组织不应该在ai领域采取“简单的解决办法”,只研究工具能做什么。“我担心的是,人们会购买并实施一个ai工具,然后放手信任它…,你必须小心,这些工具没有告诉我们我们想要听到的。“他说。
 
为此,richard认为ai可以被用作启动器,但it领导者必须利用团队的直觉,“以确保我们不会落入只相信华而不实的软件工具的陷阱,这些工具不会给我们提供我们需要的数据。”他说。
 
对ai伦理的个人看法
 
group的cio jan cenkr表示,与liuna一样,总部位于捷克的全球消费金融提供商home credit也处于ai之旅的早期,使用github copilot进行编码和文档流程。
 
cenkr同时也是home credit子企业embedit的首席执行官,他说:“它在节省时间方面提供了巨大的优势,这反过来也有有利的成本因素。”从一开始,伦理ai就是cenkr的首要考虑因素。
 
“当我们开始推出我们的ai工具试点时,我们也在内部就创建与这项技术的使用相配套的伦理治理结构进行了深入的讨论,这意味着我们有真正的检查措施,以确保我们不会违反我们的行为准则。”
 
cenkr补充说,这些代码会定期更新和测试,以确保它们尽可能地健壮。
 
他补充称,数据隐私是最具挑战性的考虑因素。“我们向我们的ai平台提供的任何信息和数据都必须绝对遵守gdpr规定。”由于home credit在多个司法管辖区运营,it还必须确保所有这些市场的合规性,其中一些市场有不同的法律,这增加了复杂性。
 
cenkr说,企业应该“以一种反映你个人对道德的态度的方式”来发展他们的治理结构。“我相信,如果你像在个人和日常生活中应用的道德规范一样用心去发展这些道德结构,这些结构将变得更加安全。”
 
此外,cenkr表示,it应该准备好定期更新其治理政策。“ai技术每天都在进步,要跟上它的发展步伐是一个真正的挑战,无论这可能有多令人兴奋。”
 
设置护栏
 
聊天机器人等ai工具在ust已经使用了几年,但genai是一个全新的领域。这家数字转型企业的首席战略官兼cio克里希纳·普拉萨德表示,这从根本上改变了商业模式,并使伦理ai成为讨论的一部分,同时也承认“如今它更具理论性。”
 
普拉萨德说,在实现考虑中,伦理ai“并不总是出现,但我们确实讨论了…我们需要有负责任的ai和一些能力来获得透明度,并追溯推荐是如何做出的。”
 
普拉萨德说,ust领导人之间的讨论集中在该企业不想在ai领域做什么,“以及我们希望在今天理解的情况下在哪里划定界限,我们如何在不造成伤害的情况下忠于我们的使命。”
 
普拉萨德呼应了其他人的观点,他表示,这意味着人类必须成为等式的一部分,因为ai更深地植根于企业内部。
 
ust提出的一个问题是,如果领导者在机器人监听的情况下就员工表现进行对话,这是否是保密的妥协。普拉萨德说:“类似的事情已经开始涌现,但在这一点上,我们可以放心地使用[微软]copilot作为一种总结对话的方式。”
 
另一个考虑因素是如何保护围绕该企业开发的工具的知识产权。“基于今天软件供应商提供的保护,我们仍然认为数据包含在我们自己的环境中,没有证据表明数据在外部丢失,”他说。出于这个原因,普拉萨德说,他和其他领导人对继续使用某些ai工具没有任何顾虑,特别是因为他们看到了生产率的提高。
 
尽管普拉萨德认为人类需要参与进来,但他也对人类的投入感到担忧。“归根结底,人类天生就有偏见,因为我们所接触的环境的性质、我们的经历以及它是如何形成我们的思维的。”他解释说。
 
他还担心,当坏人使用客户的数据为自己开发新模型时,他们是否会获得某些ai工具。
 
普拉萨德说,随着软件变得更加流行,这些都是领导者必须担心的领域。他表示,与此同时,cio必须带头,展示ai如何被永远利用,以及它将如何影响他们的商业模式,并将领导层聚集在一起,讨论最佳前进道路。
 
他说:“cio必须在推动这种对话中发挥作用,因为他们可以打破神话,也可以执行。”他补充说,他们还必须为那些有时变得非常困难的对话做好准备。
 
例如,如果一个工具提供了某种功能,“我们是希望尽可能地使用它,还是应该因为这是正确的事情而保留它,”普拉萨德说,“这是最难的对话,”但cio们必须表明,一种工具“可能会超出你的想象”。“对我来说,这一部分仍然有些模糊,那么如何对模型…施加约束呢,在选择提供使用ai的新产品和服务之前。”
 
企业网d1net(www.d1net.com):
 
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
 
凯发在线的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。

关键字:凯发在线凯发在线

原创文章 企业网d1net

x cio如何解决实施ai过程中面临的伦理问题 扫一扫
分享本文到朋友圈
凯发在线
当前位置:人工智能行业动态 → 正文

责任编辑:cres 作者:esther shein |来源:企业网d1net  2023-12-12 11:20:24 原创文章 企业网d1net

ai几乎满足了几乎每个行业组织的胃口。随着ai试点转向实际应用,关于道德ai必要性的讨论也在增加,同时也出现了“公平”、“隐私”、“透明”、“责任”和最大的术语——“偏见”。
 
随着ai成为人们工作和开展业务的不可或缺的一部分,确保这些措施和其他措施得到考虑是cio们将努力应对的一项艰巨任务。
 
对于许多cio来说,实施可能还处于萌芽阶段,但减轻ai模型中的偏见并平衡创新与伦理考虑已经是他们面临的最大挑战之一,他们发现,在技术进步和确保ai不会导致有害结果之间的界限很窄。
 
全球咨询企业egon zehnder服务和ai实践小组成员christoph wollersheim指出了大多数企业在实施ai时需要关注的五个关键领域:准确性、偏见、安全、透明度和社会责任。
 
wollersheim最近与人合著了《董事会成员监督ai指南》一书,他说,不幸的是,用ai实现100%的准确率是不可能的。“真正的伦理问题在于企业如何防范错误信息。如果向客户提供虚假数据,或者如果关键决策基于不准确的ai响应,该怎么办?企业的回应既需要一个切实可行的计划,也需要一个透明的沟通策略。”
 
他指出,当ai根据历史数据进行训练时,偏见可能会在不经意间持续存在。
 
“执行管理层和董事会都必须确保公平使用ai,并防止歧视。”他说,纠正偏见的研究正在进行中,使用合成数据来处理性别、种族和民族等属性,“但总有必要应用以人为中心的原则。”
 
wollersheim说,保护敏感信息的需要对于符合道德的ai部署来说是至关重要的,因为ai对数据的严重依赖增加了入侵和未经授权访问的风险。“企业必须加强防御,防止可能误导ai模型并导致决策失误的攻击。确保敏感信息的安全对于道德上的ai部署是至关重要的。“他说。
 
至于透明度,这不仅仅与算法有关,还与建立信任有关,他说,“利益相关者需要理解ai是如何做出决策和处理数据的。一个透明的ai框架是道德使用、问责和维护信任的关键。”
 
企业还必须考虑指导他们的价值观,以及他们在再培训、技能提升和工作保护方面的义务。wollersheim说:“道德ai是关于为我们的劳动力塑造一个负责任的未来。”
 
wollersheim说,为了解决这些问题,建立一个ai审查委员会和实施一个道德的ai框架是至关重要的。“一个道德的ai框架为每个项目的监测和批准提供了明确的指导,无论是内部的还是外部的。由技术和商业专家组成的ai审查委员会确保伦理考虑处于决策的前沿。”
 
以下是cio如何在其企业中解决道德ai的问题。
 
让道德ai成为一项团队运动
 
plexusworldwide是一家使用ai来识别欺诈性账户创建和交易的企业,这家市值5亿美元的全球健康和健康企业的cio兼首席技术官艾伦·麦金托什说。麦金托什认为,偏见从根本上说是一个数据问题。“我们试图通过利用和验证多个完整的数据源来消除偏见和不正确的结果。”他说。
 
麦金托什说,plexusit还处于在企业的电子商务平台中使用ai的分析阶段,“以获得更好的见解,以预测和优化客户体验,并增强个性化。我们还看到了自动化的机会,可以消除许多传统的人工和重复性任务。”
 
他说,为了确保遵守符合道德的ai实践,plexusworldwide组建了一个由it、法律和人力资源代表组成的团队,负责ai治理和政策的发展和演变,该团队确定了企业的风险容忍度、可接受的用例和限制以及适用的披露。
 
麦金托什说,即使有一个专注于ai的团队,识别风险并了解组织打算如何在内部和公开使用ai也是具有挑战性的。他说,团队成员还必须理解并解决ai偏见、错误声明和不正确结果的内在可能性。“根据用例的不同,你的企业和品牌的声誉可能会受到威胁,因此你必须规划有效的治理。”
 
考虑到这一点,麦金托什说,cio们“不要急于冲到终点线”是至关重要的。在实施和公开技术之前,企业必须创建一个全面的计划,并专注于开发治理框架和ai政策。麦金托什表示,确定合适的利益相关者,如法律、人力资源、合规和隐私以及it,是plexus开始其道德ai过程的地方。
 
“然后我们制定了一份政策草案,概述了角色和责任、范围、背景、可接受的使用指南、风险容忍度和管理以及治理,”他说,“我们继续迭代和演变我们的政策,但它仍在发展中。我们打算在2024年第一季度实施该计划。”
 
麦金托什建议寻找第三方资源和主题专业知识。麦金托什解释说:“它将极大地帮助加快你的计划和框架的开发和执行,并且,根据你当前的计划管理实践,为你的ai采用计划提供相同级别或更高级别的严格要求。”
 
脚步缓慢,这样ai就不会“失控”
 
cio matt richard表示,代表50多万建筑工人、公共雇员和邮件处理员的北美劳工国际联盟(liuna)已经尝试使用ai,主要是为了文件的准确性和澄清,以及撰写合同。
 
他说,随着liuna在2024年扩大ai用例,“这就产生了一个问题,那就是我们如何在伦理上使用ai。”该组织已经开始试行google duet,将撰写和谈判承包商协议的过程自动化。
 
richard说,目前,工会官员没有使用ai来识别成员的想要和需求,也没有梳理可能敏感的招聘数据,并根据模特的培训方式对人们产生偏见。
 
“这些都是我感到紧张的地方:当一个模特告诉我一个人的时候,我觉得我们还没有准备好进入这个领域,因为坦率地说,我不相信受过公共培训的模特能让我洞察我想聘用的人。”
 
尽管如此,richard预计liuna仍将经历一次“自然进化”,即未来liuna可能希望利用ai来获得对其成员的洞察,以帮助工会为他们带来更好的利益。他说,就目前而言,“我们希望如何做到这一点,这仍然是一个灰色地带。”
 
richard说,该工会还在努力增加其会员人数,其中一部分意味着使用ai来有效地识别潜在成员,“而不是识别相同的同质性人。我们的组织非常努力,在赋予少数族裔和女性权力方面做得很好,我们希望发展这些群体。”
 
这就是richard担心ai模型如何使用的地方,因为避免“寻找相同的刻板印象人口的兔子洞”并引入偏见意味着人类必须成为这一过程的一部分。“你不能让模特做所有的工作,”他说,“你知道你今天所处的位置,然后我们停下来说,‘好吧,人类需要介入,看看模型告诉我们什么。’”
 
“你不能让ai横冲直撞,…没有任何干预。”他补充说,组织不应该在ai领域采取“简单的解决办法”,只研究工具能做什么。“我担心的是,人们会购买并实施一个ai工具,然后放手信任它…,你必须小心,这些工具没有告诉我们我们想要听到的。“他说。
 
为此,richard认为ai可以被用作启动器,但it领导者必须利用团队的直觉,“以确保我们不会落入只相信华而不实的软件工具的陷阱,这些工具不会给我们提供我们需要的数据。”他说。
 
对ai伦理的个人看法
 
group的cio jan cenkr表示,与liuna一样,总部位于捷克的全球消费金融提供商home credit也处于ai之旅的早期,使用github copilot进行编码和文档流程。
 
cenkr同时也是home credit子企业embedit的首席执行官,他说:“它在节省时间方面提供了巨大的优势,这反过来也有有利的成本因素。”从一开始,伦理ai就是cenkr的首要考虑因素。
 
“当我们开始推出我们的ai工具试点时,我们也在内部就创建与这项技术的使用相配套的伦理治理结构进行了深入的讨论,这意味着我们有真正的检查措施,以确保我们不会违反我们的行为准则。”
 
cenkr补充说,这些代码会定期更新和测试,以确保它们尽可能地健壮。
 
他补充称,数据隐私是最具挑战性的考虑因素。“我们向我们的ai平台提供的任何信息和数据都必须绝对遵守gdpr规定。”由于home credit在多个司法管辖区运营,it还必须确保所有这些市场的合规性,其中一些市场有不同的法律,这增加了复杂性。
 
cenkr说,企业应该“以一种反映你个人对道德的态度的方式”来发展他们的治理结构。“我相信,如果你像在个人和日常生活中应用的道德规范一样用心去发展这些道德结构,这些结构将变得更加安全。”
 
此外,cenkr表示,it应该准备好定期更新其治理政策。“ai技术每天都在进步,要跟上它的发展步伐是一个真正的挑战,无论这可能有多令人兴奋。”
 
设置护栏
 
聊天机器人等ai工具在ust已经使用了几年,但genai是一个全新的领域。这家数字转型企业的首席战略官兼cio克里希纳·普拉萨德表示,这从根本上改变了商业模式,并使伦理ai成为讨论的一部分,同时也承认“如今它更具理论性。”
 
普拉萨德说,在实现考虑中,伦理ai“并不总是出现,但我们确实讨论了…我们需要有负责任的ai和一些能力来获得透明度,并追溯推荐是如何做出的。”
 
普拉萨德说,ust领导人之间的讨论集中在该企业不想在ai领域做什么,“以及我们希望在今天理解的情况下在哪里划定界限,我们如何在不造成伤害的情况下忠于我们的使命。”
 
普拉萨德呼应了其他人的观点,他表示,这意味着人类必须成为等式的一部分,因为ai更深地植根于企业内部。
 
ust提出的一个问题是,如果领导者在机器人监听的情况下就员工表现进行对话,这是否是保密的妥协。普拉萨德说:“类似的事情已经开始涌现,但在这一点上,我们可以放心地使用[微软]copilot作为一种总结对话的方式。”
 
另一个考虑因素是如何保护围绕该企业开发的工具的知识产权。“基于今天软件供应商提供的保护,我们仍然认为数据包含在我们自己的环境中,没有证据表明数据在外部丢失,”他说。出于这个原因,普拉萨德说,他和其他领导人对继续使用某些ai工具没有任何顾虑,特别是因为他们看到了生产率的提高。
 
尽管普拉萨德认为人类需要参与进来,但他也对人类的投入感到担忧。“归根结底,人类天生就有偏见,因为我们所接触的环境的性质、我们的经历以及它是如何形成我们的思维的。”他解释说。
 
他还担心,当坏人使用客户的数据为自己开发新模型时,他们是否会获得某些ai工具。
 
普拉萨德说,随着软件变得更加流行,这些都是领导者必须担心的领域。他表示,与此同时,cio必须带头,展示ai如何被永远利用,以及它将如何影响他们的商业模式,并将领导层聚集在一起,讨论最佳前进道路。
 
他说:“cio必须在推动这种对话中发挥作用,因为他们可以打破神话,也可以执行。”他补充说,他们还必须为那些有时变得非常困难的对话做好准备。
 
例如,如果一个工具提供了某种功能,“我们是希望尽可能地使用它,还是应该因为这是正确的事情而保留它,”普拉萨德说,“这是最难的对话,”但cio们必须表明,一种工具“可能会超出你的想象”。“对我来说,这一部分仍然有些模糊,那么如何对模型…施加约束呢,在选择提供使用ai的新产品和服务之前。”
 
企业网d1net(www.d1net.com):
 
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
 
凯发在线的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。

关键字:凯发在线凯发在线

原创文章 企业网d1net

回到顶部
"));
"));

关于凯发在线联系凯发在线隐私条款广告服务凯发在线的友情链接投稿中心凯发在线的招贤纳士

企业网凯发在线的版权所有 ©2010-2024

^
网站地图